• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 474
  • 188
  • 93
  • 17
  • 7
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 816
  • 743
  • 740
  • 152
  • 89
  • 87
  • 69
  • 66
  • 56
  • 56
  • 55
  • 49
  • 48
  • 48
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Bisimulations dans les calculs avec passivation

Lenglet, Sergueï 15 January 2010 (has links) (PDF)
Les calculs de processus représentent les systèmes concurrents par des processus qui s'exécutent en parallèle et s'échangent des messages. Les calculs avec passivation dispose d'un opérateur spécial qui permet de stopper un processus en cours d'exécution. Le processus suspendu peut ensuite être modifié ou transmis avant d'être réactivé. La passivation rend possible la modélisation de défaillances et d'opérations de reconfiguration dynamique. Nous nous intéressons aux équivalences comportementales dans ces calculs. Le comportement d'un processus est donné par un système de transitions étiquetées, qui exhibe les interactions d'un processus avec son environnement. Des relations, appelées bisimilarités, permettent ensuite d'identifier les processus qui ont le même comportement en comparant leurs interactions. Les bisimilarités définies jusqu'ici dans les calculs avec passivation restent trop complexes pour être utilisée en pratique. En outre il n'existe pas de bisimilarité correcte et complète dans le cas faible, c'est-à-dire lorsque les actions internes aux processus ne sont pas observables. Nous étudions ces deux problèmes dans cette thèse. Nous montrons d'abord qu'il est possible de définir une bisimilarité simple à manipuler pour un calcul avec passivation mais sans restriction. En revanche, nous donnons des contre-exemples qui laissent penser qu'il n'est pas possible de faire de même dans les calculs avec passivation et restriction. Nous définissons également un nouveau type de système de transitions étiquetées, qui permet de caractériser la congruence barbue dans le cas faible. Nous appliquons notre technique à différents calculs dont le Kell.
332

Relations structure - Fonction dans la superfamille des Cytochromes P450

Nguyen, Thien-An 29 October 2007 (has links) (PDF)
Les cytochromes P450 (CYP) sont des enzymes responsables de la biotransformation de composés exogènes, aussi bien dans les phénomènes de détoxication que d'intoxication par formation d'entités réactives. La forme hépatique humaine la plus abondante (CYP3A4) est responsable du métabolisme de plus de 60 % des médicaments utilisés actuellement, entraînant de nombreuses interactions médicamenteuses indésirables. La connaissance des mécanismes moléculaires de fonctionnement de ces CYPs au moyen de modèles prédictifs est d'un intérêt primordial pour les industriels. L'obtention de ces modèles par modélisation comparative est toutefois pénalisée par la dispersion en séquences dans cette superfamille. Une méthode originale de reconstruction des CYPs basée sur l'identification au sein de cette famille des blocs structuralement conservés (CSB) est proposée ici. Ces CSBs définissent un repliement commun aux CYPs et sont considérés comme la signature structurale de la superfamille. Les CSBs sont codés en termes d'informations statistiques (profile) puis alignés sur les séquences de CYP de structure inconnue, par un outil d'alignement multiple (Caliseq) créé pour produire l'alignement multiple optimal pour les reconstructions par modélisation comparative. Caliseq sert aussi à détecter des séquences originales de CYP dans une banque ou un génome. Le modèle structural obtenu permet de suggérer des mutations pour observer les modifications du comportement de la protéine vis-à-vis de ses substrats spécifiques. Le cas du CYB2B6 est un exemple concret où le modèle a suggéré des mutations permettant d'augmenter l'affinité de l'enzyme pour un substrat spécifique utilisé en chimiothérapie.
333

MASCODE : un système multi-agent adaptatif pour concevoir des produits complexes. Application à la conception préliminaire avion

Welcomme, Jean-Baptiste 01 April 2008 (has links) (PDF)
La conception préliminaire avion est un problème d'optimisation multi-disciplinaire et multi-objectif qui consiste à trouver les valeurs des paramètres de description d'un avion et de ses performances en fonction de contraintes. Ces valeurs sont calculées grâce à des connaissances disciplinaires. Les interdépendances entre les paramètres et les non linéarités complexifient les calculs pour lesquels les méthodes classiques se montrent insuffisantes. Pour pallier ce problème, nous proposons une solution basée sur les systèmes multi-agents adaptatifs dans lesquels les agents représentent les disciplines, les paramètres de conception et les performances de l'avion. Les agents en utilisant des connaissances disciplinaires et par un comportement coopératif trouvent collectivement les valeurs des paramètres de conception qui satisfont les contraintes et les performances. Nous montrons que cette approche permet aussi d'intégrer plusieurs questions telles l'étude de sensibilité des paramètres, les fronts de Pareto ou la co-conception en temps réel.
334

Analyse des données évolutives : application aux données d'usage du Web

Gomes Da Silva, Alzennyr 24 September 2009 (has links) (PDF)
Le nombre d'accès aux pages Web ne cesse de croître. Le Web est devenu l'une des plates-formes les plus répandues pour la diffusion et la recherche d'information. Par conséquence, beaucoup d'opérateurs de sites Web sont incités à analyser l'usage de leurs sites afin d'améliorer leur réponse vis-à-vis des attentes des internautes. Or, la manière dont un site Web est visité peut changer en fonction de divers facteurs. Les modèles d'usage doivent ainsi être mis à jour continuellement afin de refléter fidèlement le comportement des visiteurs. Ceci reste difficile quand la dimension temporelle est négligée ou simplement introduite comme un attribut numérique additionnel dans la description des données. C'est précisément sur cet aspect que se focalise la présente thèse. Pour pallier le problème d'acquisition des données réelles d'usage, nous proposons une méthodologie pour la génération automatique des données artificielles permettant la simulation des changements. Guidés par les pistes nées des analyses exploratoires, nous proposons une nouvelle approche basée sur des fenêtres non recouvrantes pour la détection et le suivi des changements sur des données évolutives. Cette approche caractérise le type de changement subi par les groupes de comportement (apparition, disparition, fusion, scission) et applique deux indices de validation basés sur l'extension de la classification pour mesurer le niveau des changements repérés à chaque pas de temps. Notre approche est totalement indépendante de la méthode de classification et peut être appliquée sur différents types de données autres que les données d'usage. Des expérimentations sur des données artificielles ainsi que sur des données réelles issues de différents domaines (académique, tourisme et marketing) ont été réalisées pour l'évaluer l'efficacité de l'approche proposée.
335

Modèles de génération de trajectoires pour l'animation de visages parlants

Govokhina, Oxana 24 October 2008 (has links) (PDF)
Le travail réalisé durant cette thèse concerne la synthèse visuelle de la parole pour l'animation d'un humanoïde de synthèse. L'objectif principal de notre étude est de proposer et d'implémenter des modèles de contrôle pour l'animation faciale qui puissent générer des trajectoires articulatoires à partir du texte. Pour ce faire nous avons travaillé sur 2 corpus audiovisuels. Tout d'abord, nous avons comparé objectivement et subjectivement les principaux modèles existants de l'état de l'art. Ensuite, nous avons étudié l'aspect spatial des réalisations des cibles articulatoires, pour les synthèses par HMM (Hidden Markov Model) et par concaténation simple. Nous avons combiné les avantages des deux méthodes en proposant un nouveau modèle de synthèse nommé TDA (Task Dynamics for Animation). Ce modèle planifie les cibles géométriques grâce à la synthèse par HMM et exécute les cibles articulatoires ainsi générées grâce à la synthèse par concaténation. Par la suite, nous avons étudié l'aspect temporel de la synthèse de la parole et proposé un second modèle de synthèse intitulé PHMM (Phased Hidden Markov Model) permettant de gérer les différentes modalités liées à la parole. Le modèle PHMM permet de calculer les décalages des frontières des gestes articulatoires par rapport aux frontières acoustiques des allophones. Ce modèle a été également appliqué à la synthèse automatique du LPC (Langage Parlé Complété). Enfin, nous avons réalisé une évaluation subjective des différentes méthodes de synthèse visuelle étudiées (concaténation, HMM, PHMM et TDA).
336

Gestion du temps par le raffinement

Rehm, Joris 10 December 2009 (has links) (PDF)
Dans les domaines critiques d'application de l'informatique, il peut être vital de disposer d'un génie logiciel qui soit capable de garantir le bon fonctionnement des systèmes produits. Dans ce contexte, la méthode B évènementielle promeut le développement de modèles abstraits du système à concevoir et l'utilisation de démonstrations formelles ainsi que de la relation de raffinement entre les modèles. Notre but est de pouvoir travailler sur des systèmes ayant des aspects temporels quantitatifs (propriétés et contraintes de temps) en restant au sein du cadre défini par la méthode B qui a déjà montré son efficacité par ailleurs, mais qui ne dispose pas de concepts spécifiques pour le temps. C'est ainsi que nous proposons l'introduction des contraintes de temps par le raffinement, ceci permet de respecter la philosophie de la méthode B et de systématiser cette approche par la formalisation de patrons de raffinement. Nos différentes modélisations du temps sont proposées sous la forme de patron à réappliquer sur le système à étudier. Nous pouvons donc étudier progressivement le système à partir d'une abstraction non-temporelle afin de le valider progressivement et de distribuer la difficulté de la preuve en plusieurs étapes. L'introduction des aspects temporels ne se fait que lorsque cela est nécessaire lors du processus de développement prouvé. Nous avons validé cette approche sur des études de cas réalistes en utilisant les outils logiciels de démonstration formelle de la méthode B.
337

Planification SAT et Planification Temporellement Expressive. Les Systèmes TSP et TLP-GP.

Maris, Frederic 18 September 2009 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la planification de tâches en intelligence artificielle. Après avoir introduit le domaine et les principaux algorithmes de planification dans le cadre classique, nous présentons un état de l'art de la planification SAT. Nous analysons en détail cette approche qui permet de bénéficier directement des améliorations apportées régulièrement aux solveurs SAT. Nous proposons de nouveaux codages qui intègrent une stratégie de moindre engagement en retardant le plus possible l'ordonnancement des actions. Nous présentons ensuite le système TSP que nous avons implémenté pour comparer équitablement les différents codages puis nous détaillons les résultats de nombreux tests expérimentaux qui démontrent la supériorité de nos codages par rapport aux codages existants. Nous présentons ensuite un état de l'art de la planification temporelle en analysant les algorithmes et l'expressivité de leurs langages de représentation. La très grande majorité de ces planificateurs ne permet pas de résoudre des problèmes réels pour lesquels la concurrence des actions est nécessaire. Nous détaillons alors les deux approches originales de notre système TLP-GP permettant de résoudre ce type de problèmes. Ces approches sont comparables à la planification SAT, une grande partie du travail de recherche étant déléguée à un solveur SMT. Nous proposons ensuite des extensions du langage de planification PDDL qui permettent une certaine prise en compte de l'incertitude, du choix, ou des transitions continues. Nous montrons enfin, grâce à une étude expérimentale, que nos algorithmes permettent de résoudre des problèmes réels nécessitant de nombreuses actions concurrentes.
338

Spécification et vérification de propriétés quantitatives sur des automates à contraintes

Gascon, Régis 22 November 2007 (has links) (PDF)
L'utilisation omniprésente des systèmes informatiques impose de s'assurer de leur bon fonctionnement. Dans ce but, les méthodes de vérification formelle permettent de suppléer les simulations qui ne peuvent être complètement exhaustives du fait de la complexité croissante des systèmes. Le model checking fait partie de ces méthodes et présente l'avantage d'être complètement automatisée. Cette méthode consiste à développer des algorithmes pour vérifier qu'une spécification exprimée la plupart du temps sous la forme d'une formule logique est satisfaite par un modèle du système. Les langages historiques de spécification utilisent comme formules atomiques des variables propositionnelles qui permettent d'exprimer principalement des propriétés portant sur les états de contrôle du modèle. Le but de cette thèse est de vérifier des propriétés plus riches portant sur diverses données manipulées par les modèles: des compteurs, des horloges ou des queues. Ces données peuvent prendre une infinité de valeurs et induisent donc des modèles avec un nombre infini d'états. Nous définissons un cadre général pour l'extension des logiques temporelles avec des contraintes permettant de comparer la valeur des variables a différents états de l'exécution. Nous établissons des résultats de décidabilité et complexité pour des problèmes de model checking impliquant diverses instances de ces extensions. Nous privilégions pour cela l'approche à base d'automates en combinant des constructions connues pour les logiques propositionnelles classiques avec des méthodes d'abstraction des modèles dont les variables sont interprétées dans des domaines infinis.
339

Une infrastructure de gestion de l'information de contexte pour l'intelligence ambiante

Pierson, Jérôme 05 October 2009 (has links) (PDF)
Les environnements d'intelligence ambiante servent d'interface entre les applications et les utilisateurs. Ces applications doivent prendre en compte le contexte dans lequel les utilisateurs évoluent (le lieu, la position sociale ou hiérarchique ou l'activité par exemple) pour adapter leur comportement. Il doit exister un flux d'informations de l'environnement vers les applications. Ces applications doivent pouvoir prendre en compte dynamiquement l'arrivée de nouveaux éléments dans l'environnement (utilisateurs ou dispositifs), et les informations de contexte en provenance de l'environnement doivent pouvoir parvenir aux applications entrantes ; ces flux d'informations ne peuvent pas être déterminés à l'avance et doivent se construire pendant l'exécution. Les modèles de gestion de l'information de contexte existants ne traitent pas ou peu cet aspect dynamique de l'informatique diffuse. Nous proposons d'utiliser les technologies du web sémantique pour décrire et rechercher ces informations : l'information de contexte est exprimée en RDF et décrite par des ontologies OWL. Ces technologies, parce qu'elles sont fondées sur l'hypothèse du monde ouvert, assurent l'ouverture du système et la prise en compte de dispositifs hétérogènes. Nous montrons qu'à l'aide d'un protocole simple qui permet à chacun des dispositifs et des applications d'exhiber sur le réseau un modèle des informations de contexte qu'il produit ou qu'il recherche et de s'identifier, toutes les applications de l'environnement satisfont leurs besoins en informations de contexte. De surcroît, l'ouverture des langages de description d'ontologies permet l'extension des descriptions de contexte à tout moment et les technologies d'alignement d'ontologies permettent l'utilisation d'ontologies développées indépendamment. Nous avons implémenté un composant pour la gestion de l'information de contexte fondé sur ce modèle. Puis nous avons développé une architecture distribuée où les dispositifs et les applications embarquent ce composant et exposent un modèle de l'information de contexte qu'ils recherchent ou produisent. Nous avons montré comment cette architecture permet d'accepter sans interruption de nouveaux composants.
340

Architectures et systèmes distribués tolérants aux fautes

Morin, Christine 05 March 1998 (has links) (PDF)
Ce document présente les travaux de recherche que j'ai menés sur la problématique de la tolérance aux fautes dans les architectures et systèmes distribués entre 1987 et 1998. Comment concilier efficacité et tolérance aux fautes dans des systèmes construits à partir de composants standard tout en assurant la transparence de la tolérance aux fautes pour les applications ? Cette problématique a été abordée dans le contexte de la conception du système distribué Gothic, d'une architecture multiprocesseur à mémoire partagée tolérante aux fautes, d'une architecture multiprocesseur à mémoire partagée extensible (COMA) à haute disponibilité puis d'un système de mémoire partagée répartie. Le document présente ma démarche dans la conduite de ces travaux, les résultats obtenus et leur validation expérimentale.

Page generated in 0.0718 seconds