• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 14
  • 1
  • Tagged with
  • 40
  • 11
  • 11
  • 10
  • 9
  • 8
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Un cadre générique pour les modèles globaux fondés sur les motifs locaux / A generic framework for global models based on local patterns

Khanjari Miyaneh, Eynollah 14 December 2009 (has links)
La construction de modèles globaux est une tâche centrale pour l'extraction de connaissances dans les bases de données. En particulier, les modèles globaux fondés sur des motifs locaux tels que les règles d'association apportent une description compréhensive et succincte des données. La multiplicité des points de vue, des objectifs et des données engendre une grande diversité de modèles et de leurs méthodes de construction. Cette thèse propose un cadre unificateur pour la formalisation et la manipulation de modèles globaux fondés sur les motifs locaux. Dans ce cadre, de très nombreuses méthodes de construction existantes en classification supervisée et non-supervisée, se modélisent simplement de manière déclarative. Nous apportons un algorithme générique permettant à l'utilisateur de s'affranchir des spécificités techniques, notamment lié à la forme des motifs locaux mis en jeux ou à leur extraction. Par ailleurs, nous proposons également des optimisations de cet algorithme en fonction des paramètres. Enfin, notre cadre en isolant les principales fonctionnalités des méthodes de construction existantes en facilite la comparaison. / The construction of global models is a significant field of Knowledge Discovery in Databases. In particular, global models based on local patterns such as association rules provide a succinct and understandable description of data. The numerous viewpoints, aims and domain-specific data require a wide range of global models and associated construction methods. This thesis proposes a generic framework for formalizing and manipulating global models based on local patterns. In this framework, a lot of the existing construction methods dedicated to classification, clustering and summarization are easily formulated in a declarative way. We provide a generic algorithm enabling to leave aside technical aspects, for instance the kind of used patterns and associated mining approach. Moreover, we also optimize this algorithm according to the specified parameters. Finally, our framework facilitates the comparison of existing construction methods by highlighting their main features.
2

Inference dans les modeles dynamiques de population: applications au VIH et au VHC

Guedj, Jérémie 08 December 2006 (has links) (PDF)
Les modèles dynamiques de l'intéraction virus/système immunitaire basés sur des systèmes d'équations différentielles ordinaires sans solution ont considérablement amélioré la connaissance de certains virus comme le VIH et le VHC. <br />En raison des difficultés statistiques et numériques d'estimation des paramètres de ces modèles, les premiers résultats dans la littérature ont été obtenus en faisant des estimations patient par patient sur des modèles simplifiés et linéarisés. Toutefois, ceux-ci ne permettent pas de considérer la dynamique de l'infection dans son ensemble. C'est pourquoi certains auteurs ont proposé récemment des approches Bayésiennes d'estimation des paramètres sur des modèles non-simplifiés. En outre, celles-ci sont proposées dans un cadre de population, où l'information issue des variabilité inter-patients est prise en compte.<br />Dans cette thèse, nous proposons une voie alternative à ces travaux, en développant une approche fréquentiste pour l'estimation des paramètres. La complexité de ces modèles rendant les logiciels existants non-adéquats, nous développons une méthode originale d'estimation des paramètres, qui utilise la structure particulière de ces modèles. Nous montrons la robustesse de cette approche et l'appliquons aux données de l'essai ANRS ALBI 070, en intégrant le problème méthodologique des données virologiques censurées. Nous fournissons notamment une estimation $in~vivo$ de l'effet différentiel d'efficacité de deux stratégies de traitements et illustrons de ce fait l'intérêt de cette approche pour définir un critère alternatif d'analyse des essais cliniques. Enfin, nous proposons une méthode d'étude de l'identifiabilité des modèles dynamiques du VIH. Nous montrons ainsi l'impact qu'auraient de nouvelles quantifications pour améliorer l'identifiabilité de ces modèles et, corollairement, nous discutons les limites de l'utilisation de ces modèles au vu des données habituellement disponibles.
3

Découverte automatique de modèles effectifs

Sen, Sagar 22 June 2010 (has links) (PDF)
Les découvertes scientifiques aboutissent souvent à la représentation de structures dans l'environnement sous forme de graphes d'objets. Par exemple, certains réseaux de réactions biologiques visent à représenter les processus vitaux tels que la consommation de gras ou l'activation/désactivation des gênes. L'extraction de connaissances à partir d'expérimentations, l'analyse des données et l'inférence conduisent à la découverte de structures effectives dans la nature. Ce processus de découverte scientifiques peut-il être automatisé au moyen de diverses sources de connaissances? Dans cette thèse, nous abordons la même question dans le contexte contemporain de l'ingénierie dirigée par les modèles (IDM) de systèmes logiciels complexes. L'IDM vise à accélérer la création de logiciels complexes en utilisant de artefacts de base appelés modèles. Tout comme le processus de découverte de structures effectives en science un modeleur crée dans un domaine de modélisation des modèles effectifs, qui représente des artefacts logiciels utiles. Dans cette thèse, nous considérons deux domaines de modélisation: métamodèles pour la modélisation des langages et des feature diagrams pour les lignes de produits (LPL) logiciels. Pouvons-nous automatiser la découverte de modèles effectifs dans un domaine de modélisation? Le principal défi dans la découverte est la génération automatique de modèles. Les modèles sont des graphes d'objets interconnectés avec des contraintes sur leur structure et les données qu'ils contiennent. Ces contraintes sont imposées par un domaine de modélisation et des sources hétérogènes de connaissances, incluant plusieurs règles de bonne formation. Comment pouvons-nous générer automatiquement des modèles qui satisfont ces contraintes? Dans cette thèse, nous présentons un framework dirigé par les modèles pour répondre à cette question. Le framework pour la découverte automatique de modèles utilise des sources hétérogènes de connaissances pour construire, dans un premier temps, un sous-ensemble concis et pertinent d'une spécification du domaine de modélisation appelée domaine de modélisation effectif. Ensuite, il transforme le domaine de modélisation effectif défini dans différent langages vers un problème de satisfaction de contraintes dans le langage de spécification formel Alloy. Enfin, le framework invoque un solveur sur le modèle Alloy pour générer un ou plusieurs modèles effectifs. Nous incorporons le framework dans deux outils: PRAMANA pour la découverte de modèles a partir de n'importe quel langage de modélisation et AVISHKAR pour la découverte de produits dans une LPL. Nous validons notre framework par des expérimentations rigoureuses pour la génération de test, la complétion de modèles partiel, la génération de produits, et la génération d'orchestrations web service. Les résultats montrent que notre framework génère systématiquement des solutions effectives dans des domaines de modélisation à partir de cas d'étude significatifs.
4

L'APPROCHE BOND GRAPH POUR LA DÉCOUVERTE TECHNOLOGIQUE

Pirvu-Lichiardopol, Anca-Maria 23 October 2007 (has links) (PDF)
Notre étude se concentre sur les techniques qui offrent un support automatique pour l'adaptation et la révision des modèles dynamiques. <br />L'objectif est d'étudier comment l'outil bond graph peut aider à concevoir des systèmes innovants répondant à un cahier des charges exprimé en termes de comportement temporel ou fréquentiel.<br />Construire un modèle revient toujours à faire une abstraction du système initial. Faire une abstraction du système à modéliser signifie trouver les propriétés les plus pertinentes pour la tâche à résoudre. Pour un modélisateur peu expérimenté c'est une étape difficile, car s'il n'a pas fait les bons choix son modèle se montrera faux, étant trop grossier ou trop simple. <br />Avec notre approche, l'intention est d'indiquer une autre capacité de la méthodologie bond graph, celle d'un outil de reconstruction, qui pourrait suggérer des solutions dans le cas d'un dispositif inconsistant avec les spécifications. <br />Comme applications nous décrirons un instrument médical avec un problème fréquentiel observé après la phase de construction et un actionneur électro-hydrostatique dont on n'a pas modélisé un mécanisme physique qui influençait son comportement dynamique. On démontrera que l'outil de reconstruction présenté peut suggérer aux designers peu expérimentés des modifications à apporter aux modèles d'ordres insuffisants.<br />Nous désirons aussi que le système proposé dans cette étude puisse être utilisé comme outil dans la phase de conception des dispositifs technologiques soumis à un cahier des charges. En vue de la conception nous proposons un algorithme qui permet de retrouver les solutions proposées par les ingénieurs et si c'est possible des modèles alternatifs.<br />L'algorithme sera adapté au domaine des matériaux viscoélastiques pour obtenir, à partir des données expérimentales, tous les modèles qui correspondent à un matériau identifié.<br />Nous traiterons aussi le cas d'un nouveau concept pour un capteur de vitesse très sensible aux spécifications fréquentielles. Notre système est capable de proposer plusieurs architectures qui aideront l'ingénieur à choisir celle qui lui convient le mieux vis-à-vis de son cahier des charges.<br />Parce que les bond graphs permettent une représentation unifiée des systèmes physiques, à partir des modèles proposés, nous pouvons choisir des implémentations technologiques dans des domaine physiques différents.
5

Structuration statistique de données multimédia pour la recherche d'information

Gelgon, Marc 30 November 2007 (has links) (PDF)
L'unité du travail réside en ce qu'on s'intéresse à la recherche de structure dans les données numériques (issues de données multimédia), en vue d'y faciliter la recherche d'information. Le cadre méthodologique de la résolution est que nous privilégions ici celui des modèles probabi- listes, en particulier les mélanges de lois, et de l'estimation statistique associée. La recherche de structure implique que le jeu de données étudié est composé de sous-populations de caracté- ristiques distinctes : il s'agit de séparer et de caractériser ces sous-populations, deux problèmes fortement imbriqués. Les entités extraites et les attributs qu'on en leur associe seront alors directement utiles pour la recherche d'information.
6

Segmentation of facade images with shape priors / Segmentation des images de façade avec à priori sur la forme

Kozinski, Mateusz 30 June 2015 (has links)
L'objectif de cette thèse concerne l'analyse automatique d'images de façades de bâtiments à partir de descriptions formelles à priori de formes géométriques. Ces informations suggérées par un utilisateur permettent de modéliser, de manière formelle, des contraintes spatiales plus ou moins dures quant à la segmentation sémantique produite par le système. Ceci permet de se défaire de deux principaux écueils inhérents aux méthodes d'analyse de façades existantes qui concernent d'une part la coûteuse fidélité de la segmentation résultante aux données visuelles de départ, d'autre part, la spécificité architecturale des règles imposées lors du processus de traitement. Nous proposons d'explorer au travers de cette thèse, différentes méthodes alternatives à celles proposées dans la littérature en exploitant un formalisme de représentation d'à priori de haut niveau d'abstraction, les propriétés engendrées par ces nouvelles méthodes ainsi que les outils de résolution mis en œuvres par celles-ci. Le système résultant est évalué tant quantitativement que qualitativement sur de multiples bases de données standards et par le biais d'études comparatives à des approches à l'état de l'art en la matière. Parmi nos contributions, nous pouvons citer la combinaison du formalisme des grammaires de graphes exprimant les variations architecturales de façades de bâtiments et les modèles graphiques probabilistes modélisant l'énergie attribuée à une configuration paramétrique donnée, dans un schéma d'optimisation par minimisation d'énergie; ainsi qu'une nouvelle approche par programmation linéaire d'analyse avec à priori de formes. Enfin, nous proposons un formalisme flexible de ces à priori devançant de par ses performances les méthodes à l'état de l'art tout en combinant les avantages de la généricité de contraintes simples manuellement imposées par un utilisateur, à celles de la précision de la segmentation finale qui se faisait jusqu'alors au prix d'un encodage préliminaire restrictif de règles grammaticales complexes propres à une famille architecturale donnée. Le système décrit permet également de traiter avec robustesse des scènes comprenant des objets occultants et pourrait encore être étendu notamment afin de traiter l'extension tri-dimensionnelle de la sémantisation d'environnements urbains sous forme de nuages de points 3D ou d'une analyse multi-image de bâtiments / The aim of this work is to propose a framework for facade segmentation with user-defined shape priors. In such a framework, the user specifies a shape prior using a rigorously defined shape prior formalism. The prior expresses a number of hard constraints and soft preference on spatial configuration of segments, constituting the final segmentation. Existing approaches to the problem are affected by a compromise between the type of constraints, the satisfaction of which can be guaranteed by the segmentation algorithm, and the capability to approximate optimal segmentations consistent with a prior. In this thesis we explore a number of approaches to facade parsing that combine prior formalism featuring high expressive power, guarantees of conformance of the resulting segmentations to the prior, and effective inference. We evaluate the proposed algorithms on a number of datasets. Since one of our focus points is the accuracy gain resulting from more effective inference algorithms, we perform a fair comparison to existing methods, using the same data term. Our contributions include a combination of graph grammars for expressing variation of facade structure with graphical models encoding the energy of models of given structures for different positions of facade elements. We also present the first linear formulation of facade parsing with shape priors. Finally, we propose a shape prior formalism that enables formulating the problem of optimal segmentation as the inference in a Markov random field over the standard four-connected grid of pixels. The last method advances the state of the art by combining the flexibility of a user-defined grammar with segmentation accuracy that was reserved for frameworks with pre-defined priors before. It also enables handling occlusions by simultaneously recovering the structure of the occluded facade and segmenting the occluding objects. We believe that it can be extended in many directions, including semantizing three-dimensional point clouds and parsing images of general urban scenes
7

Modelisation, approximation numerique et applications du transfert radiatif en desequilibre spectral couple avec l'hydrodynamique

Turpault, Rodolphe 12 December 2003 (has links) (PDF)
Dans certains regimes hypersoniques, le rayonnement peut enormement modifier l'ecoulement aerodynamique. Pour de telles applications, il est important d'avoir un modele qui realise un couplage fort entre l'hydrodynamique et le transfert radiatif afin d'avoir un bon comportement de la solution. Cependant, le couplage avec l'equation du transfert radiatif est en general extremement couteux et donc peu raisonnable pour des simulations multidimensionnelles instationnaires. Notre choix est d'utiliser un modele aux moments pour la partie rayonnement, ce qui est bien moins couteux. Celui-ci est base sur une fermeture entropique a la Levermore qui permet de conserver les principales proprietes de la physique. On developpe une version multigroupe de ce modele afin de pouvoir traiter des cas realistes tres dependants de la frequence. Le systeme couple resultant est hyperbolique et possede des proprietes interessantes qui sont etudiees. Ce modele radiatif est couple avec les equations de Navier-Stokes avec une approche totalement implicite et fortement couplee. De plus, pour gagner de la place memoire, on choisit d'utiliser une methode sans Jacobienne, en pratique une methode de type GMRes preconditionne. Cette methode se revele assez rapide pour pouvoir simuler des applications realistes a un cout de calcul raisonnable, ce qui n'est pas le cas de la plupart des modeles courament utilises dans la litterature. Plusieurs applications sont donnees pour illustrer le bon comportement du modele a la fois dans des configurations academiques simplifiees ou l'on peut faire des comparaisons et dans des configurations realistes comme l'ecoulement lors de l'entree atmospherique de sondes superorbitales.
8

ÉTUDE DE LA DUALITÉ DES MODÈLES BOND GRAPHS. APPLICATION À LA COMMANDE

Lichiardopol, Stefan 23 October 2007 (has links) (PDF)
L'étude de lois de commande performantes pour les processus est le domaine de recherche le plus actif en automatique. Cette recherche répond aux besoins des industriels qui exploitent des machines de plus en plus performantes. Les approches proposées exigent une connaissance précise des phénomènes physiques mis en jeu dans ces processus et la possibilité d'adaptabilité à des situations différentes.<br />Le travail de recherche apporte une contribution à ces approches, par l'étude de la dualité aux différents niveaux de la conception de loi de commande.<br />Le travail a permis d'effectuer une caractérisation de la dualité au niveau modèle (dualité entre les représentations d'état, dualité entre les modules),<br />l'étude de la dualité entre les propriétés des modèles (commandabilité/observabilité) et l'étude de la dualité dans la conception de loi de commande<br />(retour d'état, injection de sortie). Ces concepts s'appliquent à différents types de modèles (linéaires LTI et LTV, non linéaires,...). Nous avons reformulé certains concepts d'analyse et de commande par une étude unifiée entre les différentes approches classiques, graphiques, algébriques (modules) et bond graphs, entre autre. De nombreuses perspectives sont envisagées.
9

Justice distributive : opinions, jugements et choix individuels.

Boarini, Romina 20 April 2004 (has links) (PDF)
Cette thèse a pour objet l'examen empirique des préférences individuelles dans certains problèmes de distribution. L'analyse des préférences individuelles est menée à partir de leur expression sous forme d'opinions, de jugements et de choix. D'une part, nous mettons à jour les conceptions individuelles du juste sur lesquelles repose l'évaluation normative de certaines règles d'allocation de ressources, droits et obligations. Nous cherchons d'autre part à comprendre les raisons qui guident les individus dans leurs choix distributifs. La thèse se compose de six études indépendantes utilisant différentes méthodes empiriques (questionnaires, enquêtes et expériences de laboratoire). La première partie de la thèse traite de l'attribution de droits prioritaires dans le contexte de l'économie des transferts entre générations (héritage et retraites) et dans le domaine de la santé. Dans la deuxième partie, nous étudions des situations où le choix distributif résulte d'un arbitrage entre l'intérêt personnel de l'agent et celui d'autrui. Nous étudions cet arbitrage dans le cadre des politiques publiques de type redistributif et dans une situation de marchandage stylisé entre des agents ayant des revendications asymétriques. Dans cette partie, nous faisons l'hypothèse que les motifs et les déterminants des choix ne se réduisent pas aux intérêts privés des agents. En particulier, nous prenons en compte les attentions à l'autre et les considérations d'équité et de réciprocité. Nous validons cette hypothèse par le biais d'un certain nombre de tests économétriques et expérimentaux.
10

Développement d'une stratégie de couplage NODEM-NARCM via le modèle océanique GOTM

Bensaid, Samira January 2008 (has links) (PDF)
Dans le cadre du développement d'un outil numérique couplé atmosphère-océan-biogéochimie permettant de lier les processus physiques et biogéochimiques et de mieux comprendre la rétroaction entre l'océan et l'atmosphère, nous avons couplé la version unidimensionnelle du modèle atmosphérique NARCM (MLC) au modèle océanique GOTM et au modèle biogéochimique NODEM. Le but de ce travail consistait, d'une part, à développer le modèle couplé NODEM-GOTM-MLC et, d'autre part, à valider et évaluer ce modèle couplé au niveau de l'Hydrostation S en mer des Sargasses durant l'année 1992. Ceci a été réalisé tout en étudiant l'ensemble des processus physiques et biogéochimiques influençant la production du DMS océanique et la ventilation du DMS vers l'atmosphère. Pour réaliser le couplage NODEM-GOTM-MLC, la stratégie suivie consistait au développement d'une interface permettant les échanges des champs atmosphériques et océaniques nécessaires au forçage de surface. Par ailleurs, afin de valider notre modèle couplé NODEM-GOTM-MLC, nous avons comparé, d'une part, les flux d'énergie en surface simulés par le modèle avec ceux de ré-analyses NCEP et, d'autre part, le cycle annuel de la Chla et du DMS(Pp) avec les données d'observations disponibles au niveau de l'Hydrostation S pour l'année 1992. Le résultat de cette recherche montre que le modèle couplé est capable de reproduire les principaux composants du flux net d'énergie d'une manière adéquate. De plus, par comparaison avec l'ancienne version NODEM-GOTM, les simulations des cycles du DMS et du DMSPp ont été améliorées suite au couplage avec MLC. Cette nouvelle version est notamment capable de simuler les trois principaux pics du DMS présents dans les données d'observations. Cette amélioration se traduit quantitativement lors du calcul des coefficients de détermination, qui confirment que cette nouvelle version est mieux corrélée aux observations que l'ancienne. Nous avons conclu notre travail en montrant que le modèle NODEM-GOTM-MLC capte la majorité des événements locaux qui se produisent à petite échelle et à l'échelle saisonnière, en dépit du fait qu'il possède des limitations liées aux erreurs des paramétrages du modèle et à l'incapacité du modèle ID à simuler certains types d'événements. Finalement, cette étude montre qu'une meilleure simulation de tous les composants du système climatique améliore la production du DMS océanique qui sera ventilé vers l'atmosphère. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : couplage, échanges atmosphère-océan-biogéochimique, DMS, NODEM-GOTM-MLC, version ID de NARCM

Page generated in 0.0273 seconds