• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 237
  • 82
  • 37
  • 3
  • 1
  • Tagged with
  • 350
  • 178
  • 123
  • 91
  • 78
  • 66
  • 56
  • 49
  • 49
  • 47
  • 46
  • 39
  • 36
  • 34
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Algorithmes bio-informatiques pour l’analyse de données de séquençage à haut débit / New algorithmic and bioinformatic approaches for the analysis of data from high throughput sequencing

Kopylova, Evguenia 11 December 2013 (has links)
Les algorithmes d'alignement sont au coeur de l'analyse de séquences en bio-informatique. Dans cette thèse, nous nous focalisons sur le problème de l'alignement de lectures, des millions de courtes séquences produites par les séquenceurs de nouvelle génération (NGS) en particulier pour l'analyse de données de métatranscriptome et de métagénome en biodiversité. Pour cela, il y a deux types de difficulté. Le premier est que toutes les technologies NGS entrainent des erreurs de séquençage, telles que substitutions, insertions et suppressions de nucléotides. Le second est que les échantillons métagénomique peuvent contenir des centaines d'organismes inconnus et que leur analyse demande de procéder à des alignements avec des d'espèces possiblement distantes. Pour résoudre ces problèmes, nous avons développé un nouvel algorithme d'alignement reposant sur des graines avec erreurs. Cela amène un gain en sensibilité par rapport aux logiciels existants optimisés pour le problème du reséquençage, avec des similarités élevées et qui se fondent sur des graines exactes. Nous proposons également une nouvelle méthode d'indexation basée sur le Burst trie qui permet d'optimiser la recherche avec les graines avec erreurs. Nous montrons l'efficacité de nos méthodes dans deux nouveaux outils, SortMeRNA pour l'identification d'ARN ribosomiques dans des données de métatranscriptome, et SortMeDNA pour l'alignement de lectures en génomique et métagénomique. / Sequence alignment algorithms are at the heart of bioinformatic sequence analysis. In this thesis we focus on the alignment of millions of short sequences produced by Next-Generation Sequencing (NGS) technologies in particular for the analysis of metagenomic and metatranscriptomic data, that is the DNA and RNA directly extracted for an environment. Two major challenges were confronted in our developed algorithms. First, all NGS technologies today are susceptible to sequencing errors in the form of nucleotide substitutions, insertions and deletions. Second, metagenomic samples can contain hundreds of unknown organisms and the standard approach to identifying them is to align against known closely related species. To overcome these challenges we designed a new approximate matching technique based on the universal Levenshtein automaton which quickly locates short regions of similarity (seeds) between two sequences allowing 1 error of any type. Using seeds to detect possible high scoring alignments is a widely used heuristic for rapid sequence alignment, although most existing software are optimized for performing high similarity searches and apply exact seeds. Furthermore, we describe a new indexing data structure based on the Burst trie which optimizes the search for approximate seeds. We demonstrate the efficacy of our method in two implemented software, SortMeRNA and SortMeDNA. The former can quickly filter ribosomal RNA fragments from metatranscriptomic data and the latter performs full alignment for genomic and metagenomic data.
2

Supporting integration activities in object-oriented applications / Aide à l'intégration des applications orientées objets

Uquillas Gómez, Verónica Isabel 04 October 2012 (has links)
Les développeurs doivent souvent intégrer des modifications dans les versions en production de leurs applications. Des techniques de fusion avancée et automatique les aident dans cette intégration. Cependant ces techniques ne permettent pas de garantir un système fonctionnel et ne supportent pas une adaptation à la carte. Les techniques de pointe sont pour la plus part des outils textuels qui ne fournissent pas un aperçu global des modifications. En même temps, les outils existants n'offrent pas la possibilité de comprendre les changements au sein de leur contexte spécifique. Les développeurs doivent lire le code changé, vérifier les `diffs', se construire une idée d'un changement par eux-mêmes et comprendre le contexte pour évaluer l'impact des modifications.Cela peut être compliqué dans l'intégration de grands systèmes avec des modifications dans différentes `branches'. La fusion textuelle automatique ne prend pas en compte les entités de programme qu’une modification affecte ou leurs dépendances. Les développeurs doivent comparer manuellement chaque des changements et leur source d'origine. Cette thèse présente une solution pour les activités d'intégration, comme aider à comprendre l'effet d'un changement au sein d'une longue liste de changements dans un `commit'. Nous proposons une représentation de l'histoire du code source et des modifications d'un logiciel. Nous calculons les dépendances logiques entre les changements. Avec le soutien d'un outil visuel pour la caractérisation des changements et des dépendances, il est possible de fournir une approche globale pour aider les développeurs à comprendre les changements et de les guider au cours des processus d’intégration. / Developers deal with the integration of source code changes into the system release. Automatic and advanced merging techniques help them to merge their modifications. While these techniques help to merge changes, they do not guarantee to have a functional system, and they do not support performing cherry picking. Current state-of-the-art consists mostly of textual diff tools that do not provide an overview of the changes (how changes are distributed? what groups of entities did change?). At the same time, existing tools do not offer the possibility to understand changes within their specific context. Developers need to manually read the changed code, check the diffs to build an idea of a change, understand its context and assess its impact. This can be more complicated when developing large systems and the integration of streams of changes between branches is needed. Merging changes does not take into account the program entities they affect or their dependencies. Developers are responsible for performing manual and tedious comparison within the input stream of changes and also with their originating source. This dissertation presents a solution that supports the integration activities, such as aiding in understanding changes within a commit or within a stream of changes. We propose a first-class representation of the source code history and changes of a software system to enable the calculation of dependencies between changes. This combined with visual tool support for characterizing changes and dependencies, makes it possible to provide encompassing support for software integration aiding developers in understanding changes and guiding them during the merging processes.
3

Supporting software integration activities with first-class code changes / Aide à l'intégration de branches grâce à la réification des changements

Dias, Victor 27 November 2015 (has links)
Les développeurs changent le code source en parallèle les uns des autres, ce qui fait diverger les bases de code. Ces divergences se doivent d'être réintégrées. L'intégration de bases de code divergentes est une activité complexe. Par exemple, réunir deux bases de code indépendamment correctes peut générer des problèmes. L'intégration peut être difficile avec les outils existants, qui, au lieu de gérer l'évolution des entités réelles du programme modifié, gère les changements de code au niveau des lignes de texte dans les fichiers sources. Les outils sont importants: les outils de développement de logiciels se sont grandement améliorés en passant par exemple d'éditeurs de texte génériques à des IDEs qui fournissent de la manipulation de code de haut niveau tels que la refactorisation automatique et la complétion de code. Cette amélioration a été possible grâce à la réification des entités de programme. Néanmoins, les outils d'intégration n'ont pas profité d'une réification similaire des entités de changement pour améliorer l'intégration. Dans cette thèse nous avons d'abord conduit une étude auprès de développeurs pour comprendre quelles sont les activités menées durant une intégration qui sont peu supportées par les outils. L'une d'elle est la détection de commits mêlés (qui contiennent des tâches non liées telles qu'une correction de bug et une refactorisation).Ensuite, nous proposons Epicea, un modèle de changement réifié et des outils d'IDE associés, et EpiceaUntangler, une approche pour aider les développeurs à démêler les commits en se basant sur Epicea. Les résultats de nos évaluations avec des études de cas issues du monde réel montrent l’utilité de nos approches. / Developers typically change codebases in parallel from each other, which results in diverging codebases. Such diverging codebases must be integrated when finished. Integrating diverging codebases involves difficult activities. For example, two changes that are correct independently can introduce subtle bugs when integrated together. Integration can be difficult with existing tools, which, instead of dealing with the evolution of the actual program entities being changed, handle code changes as lines of text in files. Tools are important: software development tools have greatly improved from generic text editors to IDEs by providing high-level code manipulation such as automatic refactorings and code completion. This improvement was possible by the reification of program entities. Nevertheless, integration tools did not benefit from a similar reification of change entities to improve productivity in integration. In this work we first conducted a study to learn which integration activities are important and have little tool support. We discovered that one of such activities is the detection of tangled commits (that contain unrelated tasks such as a bug fix and a refactoring). Then we proposed Epicea, a reified change model and associated IDE tools, and EpiceaUntangler, an approach to help developers share untangled commits based on Epicea. The results of our evaluations with real-world studies show the usefulness of our approaches.
4

Vers une description et une modélisation des entrées des modèles de coût mathématiques pour l'optimisation des entrepôts de données / Toward a Description and Modeling Inputs of Mathematical Cost Models to Data Warehousing Optimization

Salmi, Cheik 29 March 2017 (has links)
Les entrepôts de données (ED) sont devenus une technologie mature. L'accentuation des demandes d'analyse est motivée par l'évolution technologique, Les nouveaux paradigmes de programmation et L'ingénierie Dirigée par les Modèles (!DM). Avant d'utiliser ces progrès technologiques, l'entrepôt de données doit être construit et préparé pour sa bonne exploitation.La phase de construction a vu l'utilisation massive des efforts de description et de méta-modélisation afin de faciliter la définition des correspondances entre les schémas locaux des sources de données et le schéma de l'ED et de réduire l'hétérogénéité entre les sources. La phase d'exploitation et sa tâche physique, en particulier n'ont pas eu la même utilisation des solutions de description et de méta-modélisation, bien qu'elle est considérée comme un tunnel de toutes les phases de cycle de vie de conception d,un ED. Durant cette phase; des modèles de coût mathématiques sont utilisés pour quantifier la qualité des solutions proposées. Le développement de ces derniers nécessite des efforts de collection et d'analyse des paramètres pertinents.Pour bien simuler le fonctionnement d'un ED, toutes les dimensions d'un SGBD doivent être intégrées. Dans cette thèse, nous proposons de décrire en détail ces dimensions avec des mécanismes de méta-modélisation. Vu la similarité et la hiérarchisation gui existent entre les supports de stockage, nous avons développé une ontologie de domaine dédiée aux supports de stockage.Elle permet d'expliciter leurs propriétés. Les similarités entre ces supports nous a motivé à hybrider le cache mémoire avec les mémoires flashs pour augmenter sa capacité afin de stocker un nombre important de résultats intermédiaires partagés par plusieurs requêtes décisionnelles. La réutilisation de ces résultats permet d'augmenter la performance du SGBD. Nos contributions sont validées à l'aide des expérimentations en utilisant nos modèles de coût théoriques et le SGBD Oracle. / Data warehouses (DW) have become a mature technology. The emphasis of the analysis requests is driven by technological change, the new programmig paradigms and ModelDriven Engineering (MDI). Before using these technological advances, the DW must be buil tand prepared for its proper operation. The construction phase bas seen massive description efforts and meta modeling to facilitate the definition of correspondence between local data sources schemas and DW schema and to reduce heterogeneity between sources. Despite its importance in all stages of the design life cycle of an DW, the operational phase and in particular its physical task, did not have the same interest in term of description and meta modeling. During this phase, mathematical cost models are used to quantify the quality of the solutions proposed. The development of these models requires collection efforts and analysis of relevant parameters. To simulate the operation of a DW, all the dimensions of a DBMS must be integrated. In this thesis, we propose to describe in detail these dimensions with meta-modeling mechanisms. Given the singularity and hierarchy between storage media, we have developed an ontology dedicated to storage media, which makes explicit their properties. The similarities between these supports motivated us to develop a hybrid cache based on flash memory. This increases the cache ability to store a large number of intermediate results shared by multiple decision-support queries. The reuse of these results will increase the overall performance of fue DBMS. Our contributions are validated with experiments using our theoretical cost models and the Oracle DBMS.
5

Music, restoration and ontology : a guide for the perplexed / Musique, restauration, performance et ontologie : un guide des égarés

Giombini, Lisa 07 July 2015 (has links)
J’analyse la nature des relations entre art et métaphysique dans la tradition de la musique classique, de la performance, et de la restauration de l’art. La première partie de la thèse est dédiée à l’étude de l’ontologie de la musique. Le Chapitre 1 examine les théories concernant ce que c’est une œuvre musicale d’un point de vue ontologique, à savoir l’Idéalisme, le Nominalisme et le Platonisme en défendant l’idée qu’aucune de ces théories n’est entièrement satisfaisante. Cela conduit dans le Chapitre 2 à une discussion sur la méthodologie adéquate à l’enquête ontologique et à une analyse metamétaphysique de l’ontologie de l’art. Je considère quatre objections contre l’ontologie de l’art: l’eliminativisme, l’esthétisme, l’historicisme et le sémantisme. La deuxième partie est dédiée à une étude de l’art performatif et de la restauration. Dans le Chapitre 3, j’étudie le concept d’œuvre en général, en soutenant que ce n’est pas nécessaire de classer tout l’art sous ce notion : il faut faire une distinction entre œuvres et d’autres phénomènes artistiques pour donner sens aux pratiques artistiques non traditionnelles. Dans le Chapitre 4, je considère la notion de performance d’une perspective historique et philosophique: les performances peuvent être comprises à travers la comparaison avec jeux et expériences scientifiques. Enfin, j’examine pourquoi l’art performatif défie notre compréhension standard de l’appréciation artistique en introduisant les notions d’immersion et d’interaction. Dans le Chapitre 5, j’étudie le concept d’authenticité par rapport à la restauration. Je me réfère à l’œuvre de Cesare Brandi pour aborder les questions ontologiques que la restauration nous présente. / I investigate the nature of the relationships between art and metaphysics in the tradition of classical music, performance art, and art restoration. The first part of the thesis is dedicated to musical ontology. I begin in Chapter 1 by analyzing theories of what a classical musical work is ontologically. I focus on Idealism, Nominalism and Platonism. I defend the view that none of these proposals is satisfactory nor able to resist objections. This leads in Chapter 2 to a discussion of the appropriate methodology for doing musical ontology. I thus propose a metametaphysical account of the ontology of art. I examine four objections against art ontology: Eliminativism, Aestheticism, Historicism and Semanticism. The second part of the thesis is devoted to the study of the cases of performance art and restoration. In Chapter 3 I investigate the concept of a work of art in general, arguing that there is no need to subsume all art under the work-concept. I claim that drawing a distinction between artworks and other art-phenomena is important to make sense of nontraditional contemporary art. In Chapter 4, I consider the notion of performance art both historically and philosophically. I contend that performances can be understood in the comparison with experiments and games. I examine the way in which performance art challenges our common understanding of art appreciation by introducing the contrasting notions of immersion and interaction. In Chapter 5, I consider the topic of art authenticity with regard to restoration. I refer to the work of Cesare Brandi to address some of the ontological problems that a philosophical analysis of restoration presents us with.
6

Contribution à l'optimisation des plans d'exploitation et de maintenance, selon une approche basée sur le pronostic : application au domaine naval / Contribution to the optimization of operating plans and maintenance, using an approach based on prognosis : application to the naval domain

Schutz, Jérémie 03 December 2009 (has links)
Dans le domaine naval, lorsqu'un navire quitte le quai, il s'engage à réaliser un ensemble de missions durant un horizon de temps déterminé. L'ensemble des missions à accomplir ainsi que l'ordonnancement de celles-ci constitue le plan d'exploitation. Comme un navire peut réaliser différents types de missions (diplomatique, océanographique, etc.), la dégradation du système dépend des conditions opérationnelles et environnementales. L'objectif consiste donc à choisir parmi toutes les missions proposées, dont la durée cumulée dépasse l'horizon de temps alloué, celles à réaliser ainsi que l'ordonnancement. Aussi, afin de minimiser les coûts de maintenance, différentes stratégies de maintenance seront étudiées telles que les politiques systématique, sporadique périodique et séquentielle. De manière générale, les politiques de maintenance sont constituées d'actions correctives minimales et préventives imparfaites. Compte tenu des hypothèses de travail (horizon de temps fini, loi de défaillance dynamique) l'optimisation de ces politiques de maintenance sera réalisée à l'aide de procédures numériques ou de méta-heuristiques. L'optimisation des plans d'exploitation étant résolue à l'aide méta-heuristiques, l'optimisation conjointe des deux plans peut résulter de l'intégration de deux méta-heuristiques. Le travail de recherche a donc pour objectif le développement d'un outil d'aide à la décision basé sur le pronostic. Il doit permettre de générer les plans d'exploitation et de maintenance optimaux compte tenu de l'historique des missions réalisées, du retour d'expérience d'autres navires mais aussi des missions génériques possibles / The present research work aims to develop a decision-making tool based on prognosis. Indeed, in the naval domain, when a navy ship leaves the dock, it should experience a set of missions within a finite time horizon. The business plan consist to perform as well as to schedule the overall missions. As a navy ship can achieve different type of missions (diplomatic, oceanographic, etc.), the system degradations varie according to both operational and environmental conditions. Therefore, the business plan consist on choosing among all possible missions those whose the cumulative duration does not exceed the finite time horizon. Such missions should be then scheduled and performed. On the other hand, our work deals with different maintenance policies such as systematic, sporadic, periodic and sequential. Generally, the maintenance actions are of two types, namely minimal corrective and inperfect preventive. Based on some assumptions (finite time horizon, dynamic failure law), the optimization of maintenance policy will be carried out using exact numerical procedures or meta-heuristic. To solve the joint optimization of business and maintenance plans, we use the integration of two types of meta-heuristic. The obtained solution should define the optimal business and maintenance plans given the history of missions performed, the experiences of other navy ships but also of all possible generic missions
7

La philosophie à l'âge de la science : édition commentée d'un livre inachevé de Jules Vuillemin / Philosophy at the age of science : commented edition of an unfinished book of Jules Vuillemin

Thomasette, David 03 December 2015 (has links)
Au milieu des années 1990, Jules Vuillemin (1920-2001) travaillait à la rédaction d'un grand ouvrage, intitulé Être et choix. Éléments de philosophie réaliste, destiné à présenter de façon systématique sa dernière philosophie. L'objectif de notre travail est de rendre compte de celle-ci à partir du texte, resté inachevé, détenu par les Archives Vuillemin (Laboratoire d'Histoire des Sciences et de Philosophie – UMR 7117). Pour y parvenir, nous avons organisé notre étude en deux parties.Dans la première partie, nous proposons une introduction générale au texte de Vuillemin. Celle-ci a à la fois pour but de rendre compte de manière factuelle du manuscrit (versions et datation), et d'en fournir une interprétation d'ensemble. Nous soutenons en particulier que la position philosophique de Vuillemin, que nous qualifions de réalisme sceptique, est indissociable de sa position méta-philosophique, que nous qualifions de pluralisme critique. D'après notre interprétation, ce sont essentiellement les faiblesses de la position intuitionniste qui ont orienté Vuillemin vers le choix du réalisme. Nous le montrons en particulier dans le domaine du monde sensible, de la morale, et des mathématiques, à partir de publications contemporaines à la rédaction de l'ouvrage étudié.Dans la seconde partie, nous présentons une transcription du manuscrit de Vuillemin accompagné d'un commentaire en vis-à-vis. Après l'approche synthétique de l'introduction, la méthode adoptée est ici l'analyse linéaire du texte. Dans le premier chapitre, « Qu'est-ce que la philosophie ? », nous montrons que le pluralisme défendu par Vuillemin est à l'origine d'un changement de méthode le conduisant à adopter une conception anti-fondationnaliste des croyances ontologiques. Dans le deuxième chapitre, « La réalité sensible », nous soutenons que Vuillemin tente de réfuter l'idéalisme d'un point de vue intuitionniste, par un recours à des arguments proches de ceux utilisés par Poincaré dans sa théorie de l'espace représentatif et par Merleau-Ponty dans sa phénoménologie de la perception, mais que cette tentative se solde par un demi-échec. Nous interprétons celui-ci comme un motif supplémentaire ayant motivé Vuillemin à rejeter l'intuitionnisme au profit du réalisme. Enfin, dans le troisième chapitre, « L'institution de l'homme », nous montrons que son enquête sur les signaux naturels de la perception devait logiquement se prolonger en une enquête sur les signes langagiers afin d'introduire la seule catégorie permettant de faire référence aux Idées platoniciennes, que Vuillemin nomme prédication pure. / In the mid-1990s, Jules Vuillemin (1920-2001) was working on a book entitled Être et choix. Éléments de philosophie réaliste, intended to present in systematic form his last philosophy. The aim of our work is to study it from the text, unfinished, held by the Archives Vuillemin (Laboratoire d'Histoire des Sciences et de Philosophie – UMR 7117). To achieve this, we organized our work in two arts. In the first part, we provide a general introduction to the text of Vuillemin. Its objective is to report factually the status of the manuscript (versions, dating), and to provide an overall interpretation of it. We support in particular that the philosophical position of Vuillemin, which we call skeptical realism is linked to his meta-philosophical position, which we call critical pluralism. According to our interpretation, it is mainly the weaknesses of intuitionistic position that guided Vuillemin to choose realism. We show it in particular in the field of the sensible world, morality, and mathematics. In the second part, we present a transcription of Vuillemin's manuscript accompanied by a linear comment. After the synthetic approach of the introduction, the method adopted here is an analysis of the text. In the first chapter, “Qu'est-ce que la philosophie ?”, we show that pluralism defended by Vuillemin produced a change in method leading it to adopt an anti-foundational conception of ontological beliefs. In the second chapter, “La réalité sensible”, we argue that Vuillemin tries to refute idealism from an intuitionistic point of view, using arguments close to those used by Poincaré in his theory of representative space, and Merleau-Ponty in his phenomenology of perception, but this attempt results in a partial failure. We interpret this as another reason that prompted Vuillemin to reject intuitionism in favor of realism. Finally, in the third chapter, “L'institution de l'homme”, we show that the investigation of the natural signals of perception should logically extend to a survey of linguistic signs to introduce the only category to refer to Platonic Ideas, which Vuillemin called pure predication.
8

Les sciences de l’information et de la communication face à l’émergence d’internet : vers un renouveau de la construction du « public ». Approche théorique et méta-analyse des « publics » d’internet/The information and communication sciences facing the emergence of internet : towards a revival of the construction of the “audience”. Theoretical approach and meta-analysis of the internet “audiences”

Patriarche, Geoffroy 07 March 2005 (has links)
Cette dissertation doctorale entend contribuer au renouveau des sciences de l’information et de la communication (SIC) et plus particulièrement de la construction du « public » dans un contexte caractérisé par une remise en question des savoirs théoriques et méthodologiques associée à l’émergence d’internet. Cette problématique est développée en trois temps. Dans un premier temps, nous effectuons une synthèse des constructions du public dans la recherche sur les médias classiques. Les multiples « publics » repérés dans la littérature scientifique en information et communication (infocom) sont organisés à deux niveaux. D’une part, nous distinguons les constructions du public comme « acteur collectif » et comme « acteur assistant ». D’autre part, à un niveau plus fin d’analyse, les concepts de public comme « groupe » et comme « collectivité » permettent de distinguer deux types de public comme « acteur collectif » tandis que les concepts de public comme « récepteur » et comme « coproducteur » renvoient à deux catégories différentes de public comme « acteur assistant ». Dans un deuxième temps, nous examinons plusieurs ajustements des constructions du public apportés (ou à apporter) par la recherche en infocom à propos d’internet. En ce qui concerne la construction du public comme « groupe », celle-ci recouvre désormais une grande variété de groupes dont les processus de communication interne deviennent un objet d’étude à part entière. De plus, la construction comme « public exposé » (une catégorie de public comme « récepteur ») s’articule à la problématique de l’accès aux informations. Enfin, la construction du public comme « coproducteur » voit son champ d’application considérablement élargi. Dans un troisième et dernier temps, nous réalisons une méta-analyse de la construction du public d’internet. Le corpus est composé de 186 articles issus de six revues scientifiques en infocom. Les variables examinées sont : l’origine culturelle des auteurs, l’orientation éditoriale des revues, les thématiques de recherche, les constructions du public, les constructions d’internet et les méthodes de recherche. Les résultats révèlent notamment que les ajustements nécessaires des constructions du public sont peu représentés dans le corpus. Si la construction comme « groupe » est plus fréquente que la construction comme « collectivité », la première est toutefois concentrée dans deux revues et semble peu diversifiée. De plus, le public comme « coproducteur » est rarement étudié alors qu’internet facilite la participation à la production des messages et favorise l’appropriation des contenus. Par ailleurs, la construction du public d’internet est culturellement marquée : les chercheurs européens le construisent plutôt comme « acteur collectif » tandis que les chercheurs américains privilégient la construction comme « acteur assistant ». De plus, les constructions du public ne sont pas associées aux mêmes constructions d’internet : le public comme « acteur collectif » est associé à une construction d’internet comme « medium » tandis que le public comme « acteur assistant » est associé à une construction d’internet comme « support », « média » ou « contenu ». Enfin, les constructions du public d’internet donnent lieu à des méthodes de recherche distinctes, le public comme « acteur collectif » étant articulé aux méthodes qualitatives et le public comme « acteur assistant » aux méthodes quantitatives. / This doctoral thesis aims to contribute to the revival of the information and communication sciences (ICS) whose theoretical and methodological tools are being called into question by the emergence of information and communication technologies. This study focuses on the construction of the “audience” in the age of internet and develops this issue through three chapters. The first chapter synthesizes the constructions of the audience in the research on traditional media. The numerous “audiences” identified in scientific literature from ICS are organized at two levels. On the one hand, we distinguish the audience as “collective actor” from the audience as “attending actor”. On the other hand, and more precisely, the “group” and the “collectivity” are considered two different kinds of audience as “collective actor” while the construction of the audience as “attending actor” is broken up into two constructions: the “receiver” and the “co-producer”. The second chapter discusses (some of) the alterations to the constructions of the audience that ICS have made (or should make) because of the properties of the internet. With regard to the audience as “group”, it covers henceforth a wide range of groups whose internal communication processes become an object of study. Moreover, the construction of the audience as “exposed audience” (a category of audience as “receiver”) is linked up with the issue of information access and the construction of audience as “co-producer” sees its sphere of validity considerably enlarged. The third and last chapter develops a meta-analysis of the construction of the internet audience. The corpus is composed of 186 articles published in six scientific journals from ICS. The variables examined are: the cultural origin of the authors, the editorial influence of the journals, the research subjects, the constructions of the audience, the constructions of internet and the research methods. Among other results, it appears that the “new” constructions of the audience are not much studied in the corpus. The construction as “group” is more frequently encountered than the construction as “collectivity” but is restricted to two journals and is little diversified. Moreover, the audience as “co-producer” is rarely constructed whereas internet facilitates the participation in message production and the appropriation of contents. Furthermore, the construction of the internet audience is a culturally defined process: European researchers rather construct the internet audience as “collective actor” while American researchers tend towards a construction of the internet audience as “attending actor”. Those constructions are associated with different constructions of internet: the audience as “collective actor” is linked up with the construction of internet as “medium” while the audience as “attending actor” is associated with the constructions of internet as “device”, “channel” or “content”. Finally, the constructions of the internet audience are methodologically different: the audience as “collective actor” is studied through qualitative methods while the audience as “attending actor” tends towards quantitative methods.
9

Modélisation pour la gestion de modèles

Dinh, Thi Lan Anh January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
10

Perspectives de méta-analyse pour un environnement d'aide à la simulation et prédiction / Meta-analysis perspectives toward assistance in prediction and simulation

Raynaut, William 12 January 2018 (has links)
L'émergence du phénomène Big Data a créé un besoin grandissant en analyse de données, mais, bien souvent, cette analyse est conduite par des experts de différents domaines ayant peu d'expérience en science des données. On s'intéresse donc à ce besoin d'assistance à l'analyse de données, qui commence tout juste à recevoir une certaine attention des communautés scientifiques, donnant naissance au domaine de la méta-analyse. Les premières approches du sujet se révélant souvent similaires et peu abouties, on tente en particulier de permettre de nouvelles approches de méta-analyse pour adresser ce problème d'assistance à l'analyse de données. Pour ce faire, une première étape cruciale est de déterminer ce qu'est une méta-analyse performante, aucun standard n'ayant encore été établi dans ce domaine relativement neuf. On propose ainsi un cadre générique d'évaluation de méta-analyse, permettant de comparer et caractériser finement diverses techniques de méta- analyse. Ensuite, afin d'ouvrir de nouvelles voies, on s'intéresse à un verrou majeur de la méta-analyse : la caractérisation de jeu de données. On propose et évalue alors une caractérisation par dissimilarité faisant usage de toute l'information disponible pour autoriser de nouvelles approches de méta-analyse. L'utilisation de cette caractérisation par dissimilarité permettant de recommander facilement des processus d'analyse de données complets, on décrit enfin les nouvelles approches de méta-analyses rendues possibles, ainsi que les processus afférents d'assistance à l'analyse de données. / The emergence of the big data phenomenon has led to increasing demands in data analysis, which most often are conducted by other domains experts with little experience in data science. We then consider this important demand in intelligent assistance to data analysis, which receives an increasing attention from the scientific community. The first takes on the subject often possessing similar shortcomings, we propose to address it through new processes of meta-analysis. No evaluation standard having yet been set in this relatively new domain, we first propose a meta-analysis evaluation framework that will allow us to test and compare the developed methods. In order to open new approaches of meta-analysis, we then consider one of its recurring issue: dataset characterization. We then propose and evaluate such a characterization, consisting in a dissimilarity between datasets making use of a precise topological description to compare them. This dissimilarity allows a new meta-analysis approach producing recommendations of complete data analysis processes, which we then evaluate on a proof of concept. We thus detail the proposed methods of meta-analysis, and the associated process of assistance to data analysis.

Page generated in 0.0329 seconds