• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 27
  • 2
  • 1
  • Tagged with
  • 97
  • 35
  • 33
  • 33
  • 25
  • 25
  • 22
  • 21
  • 20
  • 17
  • 16
  • 16
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Problèmes d'estimation dans les séries temporelles stationnaires avec données manquantes

Ladjouze, Salim 09 January 1986 (has links) (PDF)
Le problème des données manquantes a été abordé en introduisant les processus modulés en amplitude. Les propriétés de type ergodique (ergodicité au k-ième degré) sont étudiées dans le cadre des processus asymptotiquement stationnaires. Dans le domaine non paramétrique on étudie la consistance de deux estimateurs de la fonction de covariance et la variance asymptotique de l'un deux. On propose ensuite une méthode générale d'estimation de la fonction de densité spectrale du processus étudié. L'estimateur obtenu est étudié du point de vue biais et variance asymptotiques. Des méthodes d'estimation paramétrique, basées sur le périodogramme et du maximum de vraisemblance, sont aussi présentées
32

LUSTRE : un langage déclaratif pour le temps réel

Bergerand, Jean-Louis 06 January 1986 (has links) (PDF)
Le langage est conçu de manière à permettre une interprétation synchrone des suites. La nature du langage (dont la sémantique s'exprime simplement) permet des manipulations formelles sur les programmes dans le but de faire des vérifications et des preuves de correction. Des exemples illustrent l'utilisation du langage pour la programmation de systèmes temporisés pris dans différents domaines (temps réel classique, automatique, systolique, spécification et conception des circuits)
33

Conception d'applications pour systèmes transactionnels coopérants

Bogo, Gilles 18 June 1985 (has links) (PDF)
Les moyens offerts par les systèmes de gestion de base de données et les systèmes transactionnels pour maintenir la cohérence et l'intégrité des systèmes d'information sont tout d'abord analysés tant en centralisé qu'en réparti. La seconde partie est consacrée à l'étude de deux grandes classes de méthodes de conception, l'une fondée sur les modèles de description de données, l'autre sur les types abstraits. Dans chaque cas, une méthode particulière est présentée et analysée. Après présentation de l'application bancaire pilote, la troisième partie définit un modèle pour la description des applications transactionnelles. Celui-ci est appliqué et confronté à l'application pilote. La dernière partie décrit la réalisation de ce modèle dans le langage ADA. Un environnement de conception est construit et se présente comme un sur-ensemble du langage ADA. Enfin, cet outil est comparé à d'autres propositions du domaine de la recherche
34

Modélisation et protection contre les pannes dans les bases de données

Abdel Hay Abdel Hamid, Soheir 24 January 1979 (has links) (PDF)
On s'intéresse aux procédures garantissant les récupérations de l'information contre tout type d'avarie pour aboutir à une base de donnée fiable et à l'outillage nécessaire pour l'évaluation et l'amélioration des performances du système.
35

Spécification et conception de services d'analyse de l'utilisation d'un environnement informatique pour l'apprentissage humain

Pham Thi Ngoc, Diem 25 November 2011 (has links) (PDF)
Notre travail de recherche s'inscrit dans le cadre du projet de recherche REDiM (Réingénierie des EIAH Dirigée par les Modèles) qui porte sur la réingénierie d'un scénario pédagogique. Il se focalise plus précisément sur l'analyse de traces collectées en session par un EIAH pour fournir à l'enseignant des indicateurs calculés.Dans notre contexte de travail, UTL (Usage Tracking Language) permet de définir des indicateurs sous une forme proche des patrons de conception. Il a été conçu pour répondre aux questions de capitalisation et de réutilisation. Par contre, UTL ne disposait initialement pas de moyens pour spécifier formellement la façon de calculer l'indicateur à partir des traces collectées. De plus, les approches par développement ad hoc d'indicateurs ne permettent pas de modéliser de façon formelle la méthode de calcul. En général, les patrons de conception se limitent à la description, ils ne peuvent donc pas être automatisés. Des descriptions textuelles dans UTL pour produire un indicateur à partir des traces ne permettent pas de générer automatiquement les valeurs d'un indicateur.Notre principal objectif de recherche a donc été de définir des modèles, des méthodes et des outils pour la formalisation et l'automatisation du calcul d'indicateurs. Pour cela, nous avons élaboré une nouvelle version d'UTL qui intègre un langage de combinaison de données nommé DCL4UTL, qui permet de modéliser des indicateurs sous une forme capitalisable, automatisable et réutilisable afin de fournir des indicateurs signifiants à l'enseignant/concepteur. Ces indicateurs peuvent être calculés en temps réel ou après une session, respectivement dans un contexte de tutorat ou de réingénierie du scénario pédagogique.L'originalité de notre approche réside dans le fait que cette version permet non seulement de capitaliser des savoir-faire sur les techniques d'analyse d'usage d'un EIAH, mais aussi, avec le langage DCL4UTL (1) de décrire formellement dans une forme générique des méthodes de modélisation et de calcul d'indicateurs à partir des traces collectées par un EIAH, (2) d'intégrer des fonctions externes (qui proviennent d'autres outils d'analyse), et (3) de créer des données intermédiaires paramétrées facilitant la modélisation et la réutilisation de la méthode de calcul d'indicateurs. Nous avons également développé un outil d'analyse pour calculer les indicateurs modélisés.Cette version est le résultat d'une étude théorique et d'une analyse de l'état de l'art, mais aussi de travaux exploratoires sur la modélisation d'indicateurs et l'analyse de traces. L'approche et le langage ont été validés par plusieurs expérimentations avec plusieurs EIAH existants.
36

Modèles statistiques de courants pour mesurer la variabilité anatomique de courbes, de surfaces et de leur évolution

Durrleman, Stanley 26 March 2010 (has links) (PDF)
Le but de cette thèse est de définir, implémenter et évaluer des modèles statistiques de variabilité de courbes et de surfaces basés sur des courants en anatomie numérique. Les courants ont été récemment introduits en imagerie médicale dans le but de définir une métrique entre courbes et surfaces qui ne dépend pas de correspondance de points entre les structures. Cette métrique a été utilisée pour guider le recalage de données anatomiques. Dans cette thèse, nous proposons d'étendre cet outil pour analyser la variabilité de structures anatomiques grâce à l'inférence de modèles statistiques génératifs. Outre la définition et la discussion de tels modèles, nous proposons un cadre numérique pour les estimer efficacement. Plusieurs applications en imagerie cérébrale et cardiaque tendent à montrer la généralité et la pertinence de cette approche. Dans la première partie, nous introduisons de nouveaux outils numériques d'approximation et de compression des courants. Tout d'abord, un cadre rigoureux de discrétisation basé sur des grilles régulières est proposé: il définit des projections en dimension finie des courants qui convergent vers le courant initial quand la grille devient plus fine. Cela permet de définir de manière générique des algorithmes robustes et efficaces pour traiter les courants, avec un contrôle de la précision numérique. En particulier, cela donne une implémentation plus stable de l'algorithme de recalage de courants. Enfin, nous définissons une méthode d'approximation qui calcule une représentation éparse d'un courant à n'importe quelle précision grâce à la recherche d'une base adaptée au signal. Cette représentation éparse est d'un grand intérêt pour compresser de grands ensembles de données anatomiques et pour interpréter les statistiques sur de tels ensembles. Dans la deuxième partie, nous définissons un modèle statistique original qui considère un ensemble de courbes ou de surfaces comme le résultat de déformations aléatoires d'une forme prototype inconnue plus des perturbations résiduelles aléatoires dans l'espace des courants. L'inférence de tels modèles sur des données anatomiques décompose la variabilité en une partie géométrique (capturée par des difféomorphismes) et une partie de "texture" (capturée par les courants résiduels). Cette approche nous permet de traiter trois problèmes anatomiques: d'abord l'analyse de la variabilité d'un ensemble de lignes sulcales est utilisée pour décrire la variabilité de la surface corticale, ensuite l'inférence du modèle sur un ensemble de faisceaux de fibres de la matière blanche montre qu'à la fois la partie géométrique et la texture peuvent contenir de l'information anatomiquement pertinente et enfin l'analyse de la variabilité est utilisée dans un contexte clinique pour la prédiction de la croissance du ventricule droit du coeur chez des patients atteints de la Tétralogie de Fallot. Dans la troisième partie, nous définissons des modèles statistiques pour l'évolution de formes. Nous proposons d'abord une méthode de recalage spatio-temporel qui met en correspondance les ensembles de données longitudinales de deux sujets. Ce recalage prend en compte à la fois les différences morphologiques entre les sujets et la différence en terme de vitesse d'évolution. Nous proposons ensuite un modèle statistique qui estime conjointement un scénario moyen d'évolution à partir d'un ensemble de données longitudinales et sa variabilité spatio-temporelle dans la population. Cette analyse ouvre de nouvelles perspectives pour caractériser des pathologies par une différence de vitesse de développement des organes.
37

Implémentation d'un modèle d'acteur, application au traitement de données partielles en audit thermique de bâtiment

Le, Xiaohua 30 March 1992 (has links) (PDF)
L'audit thermique des bâtiments existants, par la nature de l'opération, pose un certain nombre de problèmes liés à la réalisation d'outils informatiques. Un des aspects importants, concernant les informations partielles (incertaines, imprécises et lacunaires) et leur traitement dans un programme informatique, n'est jusqu'alors pas pris en compte par des outils ''classiques". On propose donc, dans cette thèse, d'établir les bases d'une nouvelle génération d'outils d'aide au diagnostic, en utilisant les techniques de programmation avancée. Après une analyse détaillée de la problématique, nous avons construit une couche d'un modèle d'acteur à partir de Scheme, et réalisé une maquette informatique. Certains concepts importants, notamment celui de la "continuation" permettant la mise en oeuvre de structures de contrôle souples, puissantes et élégantes, ont été largement exploités. La réalisation de la maquette permet de montrer les intérêts d'une telle approche.
38

Contribution à la modélisation globale d'entreprise : décisions et performances dans les systèmes de production

Miry, Said 14 May 1993 (has links) (PDF)
Une entreprise industrielle n'est compétitive que si elle offre des produits satisfaisant à diverses exigences qualitatives (qualité, délai de livraison, variété, etc.) et en même temps à des exigences de coûts. Les travaux présentés dans ce mémoire s'intéressent simultanément à l'aspect production et à l'aspect financier d'une entreprise. Ce travail a deux objectifs principaux. Premièrement, la réalisation d'un modèle de simulation d'entreprises industrielles, SIM'l, dans lequel on modélise un système de production et son environnement. Cette maquette permet de construire une démarche pédagogique liée aux problèmes de l'intégration productique. Le principal apport de la maquette est de montrer l'intérêt d'une gestion conjointe des différentes fonctions d'une entreprise industrielle à savoir les approvisionnements, la comptabilité, le marketing et la production. La simulation détaillée de la production permet de montrer les conséquences des décisions et des aléas de la production sur les Résultats économiques de l'entreprise. Deuxièmement, la hiérarchisation des décisions et l'étude des performances d'une entreprise industrielle. L'application de méthodes d'analyse de données nous a permis de déterminer les niveaux de décision et de dégager les indicateurs les plus représentatifs caractérisant les performances du système à chaque niveau de décision. Les résultats obtenus montrent qu'une étude globale d'une entreprise industrielle (modélisation, simulation et évaluation des performances) dans laquelle sont pris en compte des indicateurs économiques peut être menée et peut aider à une bonne gestion à moyen et court terme.
39

DEPNET : une approche support au processus de gestion de conflits basée sur la gestion des dépendances de données de conception

Ouertani, Mohamed Zied 18 June 2007 (has links) (PDF)
Dans un contexte de performances de plus en plus exigeantes, la conception de produits est devenue une activité collaborative menée par des acteurs ayant différentes expertises. Une des caractéristiques de la conception collaborative est que les relations de précédence entre les activités créent des dépendances entre les données échangées. Dans un tel contexte, des conflits peuvent apparaître entre les acteurs lors de l'intégration de leurs propositions. Ces conflits sont d'autant plus amplifiés par la multiplicité des expertises et des points de vue des acteurs participant au processus de conception.<br />C'est à la gestion de ce phénomène, le conflit, que nous nous sommes intéressés dans le travail présenté dans ce mémoire, et plus particulièrement à la gestion de conflits par négociation. Nous proposons l'approche DEPNET (product Data dEPendencies NETwork identification and qualification) pour supporter au processus de gestion de conflits basée sur la gestion des dépendances entre les données. Ces données échangées et partagées entre les différents intervenants sont l'essence même de l'activité de conception et jouent un rôle primordial dans l'avancement du processus de conception.<br />Cette approche propose des éléments méthodologiques pour : (1) identifier l'équipe de négociation qui sera responsable de la résolution de conflit, et (2) gérer les impacts de la solution retenu suite à la résolution du conflit. Une mise en œuvre des apports de ce travail de recherche est présentée au travers du prototype logiciel DEPNET. Nous validons celui-ci sur un cas d'étude industriel issu de la conception d'un turbocompresseur.
40

Résolution du problème du p-médian, application à la restructuration de bases de données semi-structurées

Gay, Jean-Christophe 19 October 2011 (has links) (PDF)
Les problèmes que nous considérons dans cette thèse sont de nature combinatoire. Notre principal intérêt est le problème de restructuration de données semi-structurées. Par exemple des données stockées sous la forme d'un fichier XML sont des données semi-structurées. Ce problème peut être ramené à une instance du problème du p-médian. Le principal obstacle ici est la taille des instances qui peut devenir très grande. Certaines instances peuvent avoir jusqu'à 10000 ou 20000 sommets, ce qui implique plusieurs centaines de millions de variables. Pour ces instances, résoudre ne serait-ce que la relaxation linéaire du problème est très difficile. Lors d'expériences préliminaires nous nous sommes rendu compte que CPLEX peut résoudre des instances avec 1000 sommets dans des temps raisonnables. Mais pour des instances de 5000 sommets, il peut prendre jusqu'à 14 jours pour résoudre uniquement la relaxation linéaire. Pour ces raisons nous ne pouvons utiliser de méthodes qui considère la résolution de la relaxation linéaire comme une opération de base, comme par exemple les méthodes de coupes et de branchements. Au lieu d'utiliser CPLEX nous utilisons une implémentation parallèle (utilisant 32 processeurs) de l'algorithme du Volume. L'instance pour laquelle CPLEX demande 14 heures est résolue en 24 minutes par l'implémentation séquentielle et en 10 minutes par l'implémentation parallèle de l'algorithme du Volume. La solution de la relaxation linéaire est utilisée pour construire une solution réalisable, grâce à l'application d'une heuristique de construction gloutonne puis d'une recherche locale. Nous obtenons des résultats comparables aux résultats obtenus par les meilleures heuristiques connues à ce jour, qui utilisent beaucoup plus de mémoire et réalisent beaucoup plus d'opérations. La mémoire est importante dans notre cas, puisque nous travaillons sur des données de très grandes tailles. Nous étudions le dominant du polytope associé au problème du p-médian. Nous discutons de sa relaxation linéaire ainsi que de sa caractérisation polyédrale. Enfin, nous considérons une version plus réaliste du problème de restructuration de données semi-structurées. Grosso modo, nous ajoutons au problème du p-médian original des nouveaux sommets s'ils aident à réduire le coût global des affectations.

Page generated in 0.0235 seconds