• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 124
  • 30
  • Tagged with
  • 334
  • 189
  • 80
  • 65
  • 56
  • 55
  • 49
  • 46
  • 44
  • 40
  • 38
  • 38
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Biais écologique de la méta-analyse avec modificateur d'effet sous le paradigme de l'inférence causale

Robitaille-Grou, Marie-Christine 08 1900 (has links)
No description available.
252

Inferring API Usage Patterns and Constraints : a Holistic Approach

Saied, Mohamed Aymen 08 1900 (has links)
Les systèmes logiciels dépendent de plus en plus des librairies et des frameworks logiciels. Les programmeurs réutilisent les fonctionnalités offertes par ces librairies à travers une interface de programmation (API). Par conséquent, ils doivent faire face à la complexité des APIs nécessaires pour accomplir leurs tâches, tout en surmontant l’absence de directive sur l’utilisation de ces API dans leur documentation. Dans cette thèse, nous proposons une approche holistique qui cible le problème de réutilisation des librairies, à trois niveaux. En premier lieu, nous nous sommes intéressés à la réutilisation d’une seule méthode d’une API. À ce niveau, nous proposons d’identifier les contraintes d’utilisation liées aux paramètres de la méthode, en analysant uniquement le code source de la librairie. Nous avons appliqué plusieurs analyses de programme pour détecter quatre types de contraintes d’utilisation considérées critiques. Dans un deuxième temps, nous changeons l’échelle pour nous focaliser sur l’inférence des patrons d’utilisation d’une API. Ces patrons sont utiles pour aider les développeurs à apprendre les façons courantes d’utiliser des méthodes complémentaires de l’API. Nous proposons d’abord une technique basée sur l’analyse des programmes clients de l’API. Cette technique permet l’inférence de patrons multi-niveaux. Ces derniers présentent des relations de co-utilisation entre les méthodes de l’API à travers des scénarios d’utilisation entremêlés. Ensuite, nous proposons une technique basée uniquement sur l’analyse du code de la librairie, pour surmonter la contrainte de l’existence des programmes clients de l‘API. Cette technique infère les patrons par analyse des relations structurelles et sémantiques entre les méthodes. Finalement, nous proposons une technique coopérative pour l’inférence des patrons d’utilisation. Cette technique est axée sur la combinaison des heuristiques basées respectivement sur les clients et sur le code de la librairie. Cette combinaison permet de profiter à la fois de la précision des techniques basées sur les clients et de la généralisabilité des techniques basées sur les librairies. Pour la dernière contribution de notre thèse, nous visons un plus haut niveau de réutilisation des librairies. Nous présentons une nouvelle approche, pour identifier automatiquement les patrons d’utilisation de plusieurs librairies, couramment utilisées ensemble, et généralement développées par différentes tierces parties. Ces patrons permettent de découvrir les possibilités de réutilisation de plusieurs librairies pour réaliser diverses fonctionnalités du projets. / Software systems increasingly depend on external library and frameworks. Software developers need to reuse functionalities provided by these libraries through their Application Programming Interfaces (APIs). Hence, software developers have to cope with the complexity of existing APIs needed to accomplish their work, and overcome the lack of usage directive in the API documentation. In this thesis, we propose a holistic approach that deals with the library usability problem at three levels of granularity. In the first step, we focus on the method level. We propose to identify usage constraints related to method parameters, by analyzing only the library source code. We applied program analysis strategies to detect four critical usage constraint types. At the second step, we change the scale to focus on API usage pattern mining in order to help developers to better learn common ways to use the API complementary methods. We first propose a client-based technique for mining multilevel API usage patterns to exhibit the co-usage relationships between API methods across interfering usage scenarios. Then, we proposed a library-based technique to overcome the strong constraint of client programs’ selection. Our technique infers API usage patterns through the analysis of structural and semantic relationships between API methods. Finally, we proposed a cooperative usage pattern mining technique that combines client-based and library-based usage pattern mining. Our technique takes advantage at the same time from the precision of the client-based technique and from the generalizability of the library-based technique. As a last contribution of this thesis, we target a higher level of library usability. We present a novel approach, to automatically identify third-party library usage patterns, of libraries that are commonly used together. This aims to help developers to discover reuse opportunities, and pick complementary libraries that may be relevant for their projects.
253

Estimation multi-robuste efficace en présence de données influentes

Michal, Victoire 08 1900 (has links)
No description available.
254

Statistical modeling of protein sequences beyond structural prediction : high dimensional inference with correlated data / Modélisation statistique des séquences de protéines au-delà de la prédiction structurelle : inférence en haute dimension avec des données corrélées

Coucke, Alice 10 October 2016 (has links)
Grâce aux progrès des techniques de séquençage, les bases de données génomiques ont connu une croissance exponentielle depuis la fin des années 1990. Un grand nombre d'outils statistiques ont été développés à l'interface entre bioinformatique, apprentissage automatique et physique statistique, dans le but d'extraire de l'information de ce déluge de données. Plusieurs approches de physique statistique ont été récemment introduites dans le contexte précis de la modélisation de séquences de protéines, dont l'analyse en couplages directs. Cette méthode d'inférence statistique globale fondée sur le principe d'entropie maximale, s'est récemment montrée d'une efficacité redoutable pour prédire la structure tridimensionnelle de protéines, à partir de considérations purement statistiques.Dans cette thèse, nous présentons les méthodes d'inférence en question, et encouragés par leur succès, explorons d'autres domaines complexes dans lesquels elles pourraient être appliquées, comme la détection d'homologies. Contrairement à la prédiction des contacts entre résidus qui se limite à une information topologique sur le réseau d'interactions, ces nouveaux champs d'application exigent des considérations énergétiques globales et donc un modèle plus quantitatif et détaillé. À travers une étude approfondie sur des donnéesartificielles et biologiques, nous proposons une meilleure interpretation des paramètres centraux de ces méthodes d'inférence, jusqu'ici mal compris, notamment dans le cas d'un échantillonnage limité. Enfin, nous présentons une nouvelle procédure plus précise d'inférence de modèles génératifs, qui mène à des avancées importantes pour des données réelles en quantité limitée. / Over the last decades, genomic databases have grown exponentially in size thanks to the constant progress of modern DNA sequencing. A large variety of statistical tools have been developed, at the interface between bioinformatics, machine learning, and statistical physics, to extract information from these ever increasing datasets. In the specific context of protein sequence data, several approaches have been recently introduced by statistical physicists, such as direct-coupling analysis, a global statistical inference method based on the maximum-entropy principle, that has proven to be extremely effective in predicting the three-dimensional structure of proteins from purely statistical considerations.In this dissertation, we review the relevant inference methods and, encouraged by their success, discuss their extension to other challenging fields, such as sequence folding prediction and homology detection. Contrary to residue-residue contact prediction, which relies on an intrinsically topological information about the network of interactions, these fields require global energetic considerations and therefore a more quantitative and detailed model. Through an extensive study on both artificial and biological data, we provide a better interpretation of the central inferred parameters, up to now poorly understood, especially in the limited sampling regime. Finally, we present a new and more precise procedure for the inference of generative models, which leads to further improvements on real, finitely sampled data.
255

Dynamique cérébrale en neuroimagerie fonctionnelle

Ciuciu, Philippe 10 July 2008 (has links) (PDF)
Mes travaux portent sur l'analyse de la dynamique cérébrale à partir de données de neuro-imagerie fonctionnelle issues d'examens d'Imagerie par Résonance Magnétique fonctionnelle (IRMf). Ils concernent aussi bien l'étude de la dynamique évoquée par un paradigme d'activation cérébrale et celle issue de l'activité spontanée ou de « fond » lorsque le sujet est au repos (resting state). Les algorithmes que j'ai développés s'appuient pour une large partie sur une connaissance explicite du paradigme expérimental mis au point par l'expérimentateur mais aussi prennent place dans une moindre part au sein des méthodes exploratoires, qui n'exploitant pas ces informations issues du paradigme.<br /><br />Ce thème de recherche embrasse à la fois des problèmes bas niveau relatifs à la reconstruction d'images en IRM mais aussi des aspects plus haut niveau qui concernent l'estimation et la sélection de modèles hémodynamiques régionaux non-paramétriques, capables de prendre en compte la variabilité inter-individuelle de la réponse impulsionnelle du système neuro-vasculaire. Les problèmes de reconstruction sont traités à l'aide de méthodes classiques de régularisation dans l'espace image ou des méthodes plus évoluées opérant dans l'espace transformé des coefficients d'ondelette. Les aspects inférentiels haut niveau sont majoritairement abordés dans le cadre des statistiques bayésiennes.
256

Améliorer la compréhension du cortex visuel à l'aide de techniques de classification

Michel, Vincent 15 December 2010 (has links) (PDF)
Dans ce mémoire, nous présentons différentes méthodes d'apprentissage statistique qui peuvent être utilisées pour comprendre le code neuronal des fonctions cognitives, en se basant sur des données d'Imagerie par Résonance Magnétique fonctionnelle du cerveau. Plus particulièrement, nous nous intéressons à l'´etude de la localisation spatiale des entités impliquées dans le codage, et leur influence respective dans le processus cognitif. Dans cette étude, nous nous focalisons principalement sur l'étude du cortex visuel. Dans la première partie de ce mémoire, nous introduisons les notions d'architecture fonctionnelle cérébrale, de codage neuronal et d'imagerie fonctionnelle. Nous étudions ensuite les limites de l'approche classique d'analyse des données d'IRMf pour l'étude du codage neuronal, et les différents avantages apportées par une méthode d'analyse récente, l'inférence inverse. Enfin, nous détaillons les méthodes d'apprentissage statistique utilisées dans le cadre de l'inférence inverse, et nous les évaluons sur un jeu de données réelles. Cette étude permet de mettre en évidence certaines limitations des approches classiquement utilisées, que cette thèse vise à résoudre. En particulier, nous nous intéressons à l'intégration de l'information sur la structure spatiale des données, au sein d'approches d'apprentissage statistique. Dans la seconde partie de ce mémoire, nous décrivons les trois principales contributions de cette thèse. Tout d'abord, nous introduisons une approche Bayésienne pour la régularisation parcimonieuse, qui généralise au sein d'un même modèle plusieurs approches de références en régularisation Bayésienne. Ensuite nous proposons un algorithme de coalescence supervisé (supervised clustering) qui tient compte de l 'information spatiale contenue dans les images fonctionnelles. Les cartes de poids résultantes sont facilement interprétables, et cette approche semble être bien adaptée au cas de l'inférence entre sujets. La dernière contribution de cette thèse vise à inclure l'information spatiale au sein d'un modèle de régularisation. Cette régularisation peut alors être utilisée dans un cadre de régression et de classification, et permet d'extraire des ensembles connexes de voxels prédictifs. Cette approche est particulièrement bien adaptée à l'étude de la localisation spatiale du codage neuronal, abordée durant cette thèse.
257

Lois bayésiennes a priori dans un plan binomial séquentiel

Bunouf, Pierre 01 March 2006 (has links) (PDF)
La reformulation du théorème de Bayes par R. de Cristofaro permet d'intégrer l'information sur le plan expérimental dans la loi a priori. En acceptant de transgresser les principes de vraisemblance et de la règle d'arrêt, un nouveau cadre théorique permet d'aborder le problème de la séquentialité dans l'inférence bayésienne. En considérant que l'information sur le plan expérimental est contenue dans l'information de Fisher, on dérive une famille de lois a priori à partir d'une vraisemblance directement associée à l'échantillonnage. Le cas de l'évaluation d'une proportion dans le contexte d'échantillonnages Binomiaux successifs conduit à considérer la loi Bêta-J. L'étude sur plusieurs plans séquentiels permet d'établir que l'"a priori de Jeffreys corrigé" compense le biais induit sur la proportion observée. Une application dans l'estimation ponctuelle montre le lien entre le paramétrage des lois Bêta-J et Bêta dans l'échantillonnage fixe. La moyenne et le mode des lois a posteriori obtenues présentent des propriétés fréquentistes remarquables. De même, l'intervalle de Jeffreys corrigé montre un taux de recouvrement optimal car la correction vient compenser l'effet de la règle d'arrêt sur les bornes. Enfin, une procédure de test, dont les erreurs s'interprètent à la fois en terme de probabilité bayésienne de l'hypothèse et de risques fréquentistes, est construite avec une règle d'arrêt et de rejet de H0 fondée sur une valeur limite du facteur de Bayes. On montre comment l'a priori de Jeffreys corrigé compense le rapport des évidences et garantit l'unicité des solutions, y compris lorsque l'hypothèse nulle est composite.
258

La résolution des réseaux de contraintes algébriques et qualitatives : une approche d'aide à la conception en ingéniérie

Duong, Vu Nguyen 16 November 1990 (has links) (PDF)
La thèse est que la représentation par contraintes, en terme de langage et la déduction par la gestion automatique des réseaux de contraintes est une voie adéquate pour les systèmes d'aide à la conception en ingénierie. Deux techniques de l'Intelligence Artificielle à savoir la Propagation de Contraintes et le Raisonnement Qualitatif sont abordées. La Propagation de Contraintes est un mécanisme d'inférences déductives sur les réseaux de contraintes. Ce mécanisme présente plusieurs difficultés, particulièrement dans les calculs pas-à-pas de la résolution des relations entre valeurs des variables. Pour améliorer ce mécanisme, il est proposé dans le présente travail des algorithmes de filtrage sur la consistance locale dans des réseaux de contraintes algébriques n-aires. Ainsi, le concept de réseaux dynamiques est exploité comme un module d'aide à la conception. Le Raisonnement Qualitatif permet aux concepteurs d'analyser les modèles quand la connaissance est incomplète. L'approche de la Simulation Qualitative est proposée. L'adéquation de celle-ci est illustrée par d'une part, la représentation de connaissances incomplètes en termes de contraintes qualitatives, et d'autre part, sa capacité de saisir les comportements qualitatifs possibles des modèles. Un ensemble de logiciels est développé et leur efficacité démontrée sur des cas simples.
259

Représentations de connaissance: de l'approximation à la confrontation

Euzenat, Jérôme 20 January 1999 (has links) (PDF)
Un formalisme de représentation de connaissance a pour but de permettre la modélisation d'un domaine particulier. Bien entendu, il existe divers langages de ce type et, au sein d'un même langage, divers modèles peuvent représenter un même domaine. Ce mémoire est consacré à l'étude des rapports entre de multiples représentations de la même situation. Il présente les travaux de l'auteur entre 1992 et 1998 en progressant de la notion d'approximation, qui fonde la représentation, vers la confrontationentre les diverses représentations. Tout d'abord la notion d'approximation au sein des représentations de <br />connaissance par objets est mise en avant, en particulier en ce qui concerne mécanismes tirant parti de la structure taxonomique (classification, catégorisation, inférence de taxonomie). À partir de la notion de système classificatoire qui permet de rendre compte de ces mécanismes de manière unique on montre comment un système de représentation de connaissance peut être construit. Le second chapitre introduit la possibilité de tirer parti de multiples taxonomies (sur le même ensemble d'objets) dans un système de représentation de connaissance. La multiplicité des représentations taxonomiques est alors introduite en tant que telle et justifiée. Ces multiples taxonomies sont replacées dans le cadre des systèmes classificatoires présentés auparavant. La notion de granularité, qui fait l'objet du troisième chapitre, concerne la comparaison de représentations diverses de la même situation sachant qu'elles ont un rapport très particulier entre elles puisqu'elles représentent la même situation sous différentes granularités. À la différence des autres chapitres, celui-ci n'est pas situé dans le cadre des représentations de connaissance par objets mais dans celui des algèbres de relations binaires utilisées pour représenter le temps et l'espace. Le quatrième chapitre, enfin, va vers la confrontation des différentes représentations de manière à en tirer le meilleur parti (obtenir une représentation consensuelle ou tout simplement une représentation consistante). Le but des travaux qui y sont présentés est de développer un système d'aide à la construction collaborative de bases de connaissance consensuelles. À cette fin, les utilisateurs veulent mettre dans une base commune (qui doit être consistante et consensuelle) le contenu de leurs bases de connaissance individuelles. Pour cela, deux problèmes particuliers sont traités : la conception d'un mécanisme de révision, pour les représentations de connaissance par objets, permettant aux utilisateurs de traiter les problèmes d'inconsistance et la conception d'un protocole de soumission de connaissance garantissant l'obtention d'une base commune consensuelle. Cet aperçu partiel des travaux possibles dans l'étude des relations entre représentations est limité, mais il met en évidence le caractère non impératif des solutions proposées qui s'appliquenle système de représentation.
260

Non stationnarité dans les modèles de type booléen : application à la simulation d'unités sédimentaires

Benito Garcia-Morales, Marta 01 December 2003 (has links) (PDF)
Les enjeux économiques de l'industrie pétrolière imposent un important besoin de décrire la structure géologique des réservoirs d'hydrocarbures et des caractéristiques pétrophysiques des roches qui les constituent. La modélisation des réservoirs consiste à construire des modèles numériques qui représentent les hétérogénéités dans le réservoir à différentes échelles. Le schéma booléen est un modèle très utilisé pour établir un modèle lithologique de l'architecture interne du réservoir, que ce soit à l'échelle d'une unité génétique ou à l'échelle granulométrique à l'intérieur de ce dernier. Ce modèle présente néanmoins un problème important lors de son application à la modélisation de réservoirs présentant une distribution non stationnaire des lithofaciès qui les composent. Les proportions de ces lithofaciès fournissent une information sur leur distribution spatiale et constituent un outil très efficace pour déterminer la présence d'une non stationnarité. Elles permettent de quantifier l'information géologique des dépôts et constituent ainsi une importante contrainte à respecter pour obtenir des simulations géologiquement réalistes. Dans cette thèse, nous avons intégré dans le modèle booléen cette information contenue dans les proportions. Le problème abordé est l'inférence des paramètres du modèle à partir des proportions. Deux aspects ont été traités. D'une part, la définition du problème d'inférence du point de vue théorique, en établissant le rapport entre les variables expérimentales et les paramètres constitutifs du modèle. D'autre part, le développement d'un outil informatique opérationnel permettant d'automatiser le passage entre les données de proportion et les paramètres du modèle. Nous proposons une méthode d'inférence, basée sur un processus de déconvolution, qui permet d'introduire l'information des proportions dans le modèle et ainsi de reproduire dans les simulations une distribution non stationnaire des hétérogénéités de l'unité sédimentaire. Ces simulations respectent ainsi par construction la distribution latérale et verticale des proportions dans l'unité de même que la valeur moyenne globale de la proportion sur tout le volume étudié. Celle-ci est associée à des paramètres pétrophysiques telle que la porosité, et il est important de la retrouver dans les simulations.

Page generated in 0.0391 seconds