• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2049
  • 976
  • 292
  • 8
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3289
  • 1473
  • 668
  • 664
  • 573
  • 552
  • 372
  • 317
  • 293
  • 275
  • 275
  • 248
  • 223
  • 214
  • 213
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Intégration des connaissances ontologiques dans la fouille de motifs séquentiels avec application à la personnalisation Web

Adda, Mehdi January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
302

Entrepôts et analyse en ligne de données complexes centrés utilisateur : un nouveau défi

Bentayeb, Fadila 24 November 2011 (has links) (PDF)
Les entrepôts de données répondent à un réel besoin en matière d'accès à l'information résumée. Cependant, en suivant le processus classique d'entreposage et d'analyse en ligne (OLAP) de données, les systèmes d'information décisionnels (SID) exploitent très peu le contenu informationnel des données. Alors même que les SID sont censés être centrés utilisateur, l'OLAP classique ne dispose pas d'outils permettant de guider l'utilisateur vers les faits les plus intéressants du cube. La prise en compte de l'utilisateur dans les SID est une problématique nouvelle, connue sous le nom de personnalisation, qui pose plusieurs enjeux peu ou pas étudiés. Le travail présenté dans ce mémoire vise à proposer des solutions innovantes dans le domaine de la personnalisation dans les entrepôts de données complexes. L'originalité de nos travaux de recherche a consisté à montrer qu'il est pertinent d'intégrer la sémantique dans tout le processus d'entreposage, soit en invitant l'utilisateur à exprimer ses propres connaissances métier, soit en utilisant les méthodes de fouille de données pour extraire des connaissances cachées. En s'appuyant sur l'intuition que des connaissances sur le métier, sur les données entreposées et leur usage (requêtes) peuvent contribuer à aider l'utilisateur dans son exploration et sa navigation dans les données, nous avons proposé une première approche de personnalisation basée sur les connaissances explicites des utilisateurs. En empruntant le concept d'évolution de schéma, nous avons relâché la contrainte du schéma fixe de l'entrepôt, pour permettre d'ajouter ou de supprimer un niveau de hiérarchie dans une dimension. Ces travaux ont été étendus pour recommander à l'utilisateur des hiérarchies de dimension nouvelles basées sur la découverte de nouvelles structures naturelles grâce aux principes d'une méthode de classification (K-means). Nous avons par ailleurs développé la fouille en ligne en s'appuyant uniquement sur les outils offerts par les systèmes de gestion de bases de données (SGBD). La fouille en ligne permet d'étendre les capacités analytiques des SGBD, support des entrepôts de données, de l'OLAP vers une analyse structurante, explicative et prédictive ; et venir en appui à la personnalisation. Afin de prendre en compte à la fois l'évolution des données et celle des besoins tout en garantissant l'intégration structurelle et sémantique des données, nous avons proposé une approche d'analyse en ligne à la demande, qui s'appuie sur un système de médiation à base d'ontologies. Par ailleurs, nous avons proposé un modèle multidimensionnel d'objets complexes basé sur le paradigme objet qui permet de représenter les objets de l'univers de façon plus naturelle et de capter la sémantique qu'ils véhiculent. Un opérateur de projection cubique est alors proposé pour permettre à l'utilisateur de créer des cubes d'objets complexes personnalisés. Toutes nos solutions ont été développées et testées dans le contexte des entrepôts de données relationnels et/ou XML.
303

Analyse comparative de la couverture et de l’acceptabilité des solutions d’un dictionnaire bilingue spécialisé, d’une banque de données terminologiques et d’un concordancier en ligne : application au domaine de la traduction médicale

Simard, Tanya 21 August 2013 (has links)
La présente étude rend compte de l’utilité de trois ressources pour le traducteur médical, soit le Dictionnaire anglais-français des sciences médicales et paramédicales de Gladstone, la banque de données terminologiques et linguistiques du gouvernement du Canada TERMIUM Plus® et le concordancier en ligne WeBiText, sur la base d’une analyse comparative de leur taux de couverture et du niveau d’acceptabilité des solutions qu’elles proposent. Contrairement à d’autres études, cette recherche mise sur une approche double qui combine un volet quantitatif et qualitatif. À partir d’un ensemble de problèmes de traduction tiré d’un corpus d’étude constitué de huit résumés d’articles scientifiques de revues médicales canadiennes, nous démontrons que le taux de couverture du corpus « Santé » de WeBiText est de 62 %, alors que celui de TERMIUM Plus® est de 37 % et celui du Gladstone de 30 %. Nous montrons par ailleurs que le concordancier fournit environ deux fois plus de solutions que les deux autres ressources. En outre, des données rassemblées dans le cadre d’un questionnaire en ligne auprès de 88 langagiers révèlent que les solutions proposées par WeBiText sont tout aussi acceptables que celles offertes par TERMIUM Plus®, tandis que celles qui figurent dans le Gladstone sont souvent considérées comme inacceptables. Nous en concluons que les corpus parallèles tirés du Web ont une meilleure couverture que les ressources traditionnelles et qu’ils présentent une gamme plus variée de solutions uniques et convenables, notamment pour la traduction de textes médicaux hautement spécialisés. ENGLISH This study reports on the usefulness of three resources for the medical translator, namely Gladstone's English-French dictionary of medical and paramedical sciences, TERMIUM Plus®, the Government of Canada's terminology and linguistic data bank, and WeBiText, an online concordancer, on the basis of a comparative analysis of their coverage and the level of acceptability of the solutions they offer. Unlike other studies, this research adopts a two-fold approach combining quantitative and qualitative perspectives. From a set of translation problems drawn from a corpus of eight scientific paper abstracts from Canadian medical journals, we demonstrate that WeBiText's "Health" corpus has a 62% coverage rate, while that of TERMIUM Plus® is 37% and Gladstone's is 30%. We also show that the concordancer provides roughly twice as many solutions as the other two resources. In addition, data collected through an online survey of 88 language professionals indicates that the solutions found in WeBiText are equally acceptable as those provided by TERMIUM Plus®, while Gladstone's are often considered unacceptable. We conclude that Web parallel corpora have a better coverage than traditional resources and that they offer a broader range of unique and suitable solutions, particularly for the translation of highly specialized medical texts.
304

On the efficient distributed evaluation of SPARQL queries / Sur l'évaluation efficace de requêtes SPARQL distribuées

Graux, Damien 15 December 2016 (has links)
Le Web Sémantique est une extension du Web standardisée par le World Wide Web Consortium. Les différents standards utilisent comme format de base pour les données le Resource Description Framework (rdf) et son langage de requêtes nommé sparql. Plus généralement, le Web Sémantique tend à orienter l’évolution du Web pour permettre de trouver et de traiter l’information plus facilement. L'augmentation des volumes de données rdf disponibles tend à faire rendre standard la distribution des jeux de données. Par conséquent, des évaluateurs de requêtes sparql efficaces et distribués sont de plus en plus nécessaires. Pour faire face à ces challenges, nous avons commencé par comparer plusieurs évaluateurs sparql distribués de l'état-de-l'art tout en adaptant le jeu de métriques considéré. Ensuite, une analyse guidée par des cas typiques d'utilisation nous a conduit à définir de nouveaux champs de développement dans le domaine de l'évaluation distribuée de sparql. Sur la base de ces nouvelles perspectives, nous avons développé plusieurs évaluateurs efficaces pour ces différents cas d'utilisation que nous avons comparé expérimentalement. / The Semantic Web standardized by the World Wide Web Consortium aims at providing a common framework that allows data to be shared and analyzed across applications. Thereby, it introduced as common base for data the Resource Description Framework (rdf) and its query language sparql.Because of the increasing amounts of rdf data available, dataset distribution across clusters is poised to become a standard storage method. As a consequence, efficient and distributed sparql evaluators are needed.To tackle these needs, we first benchmark several state-of-the-art distributed sparql evaluators while adapting the considered set of metrics to a distributed context such as e.g. network traffic. Then, an analysis driven by typical use cases leads us to define new development areas in the field of distributed sparql evaluation. On the basis of these fresh perspectives, we design several efficient distributed sparql evaluators which fit into each of these use cases and whose performances are validated compared with the already benchmarked evaluators. For instance, our distributed sparql evaluator named sparqlgx offers efficient time performances while being resilient to the loss of nodes.
305

Le phénomène de circulation des données à caractère personnel dans le cloud : étude de droit matériel dans le contexte de l'Union européenne / The flow of personal data in the cloud : a study of substantive law within the European Union context

Tourne, Elise 11 June 2018 (has links)
Le régime juridique applicable à la collecte et à l’exploitation par les fournisseurs de services de cloud computing des données à caractère personnel de leurs utilisateurs constitue une source d’interrogation pour ces derniers. De fait, aucun régime juridique organisé ne permet aujourd’hui de réguler de manière globale, au niveau de l’Union européenne, le phénomène de circulation des données à caractère personnel dans le cloud, que ce soit de manière directe ou indirecte. Il apparaît, dès lors, nécessaire de s’interroger sur la manière dont le droit s’est organisé en conséquence et d’analyser les traitements complémentaires et/ou alternatifs actuellement offerts par le droit, certes moins structurellement organisés et mosaïques, mais plus pragmatiques, réalistes et politiquement viables. Historiquement, le phénomène de circulation a été presque exclusivement traité via le droit spécifique à la protection des données à caractère personnel découlant de l’Union européenne. Ce droit, souvent considéré par opposition au droit à la libre circulation des données, constituait initialement une émanation du droit à la protection de la vie privée avant d’être consacré en tant que droit fondamental de l’Union européenne. Le traitement offert par le droit à la protection des données, s’il cible directement les données au cœur du phénomène de circulation dans le cloud, ne couvre que partiellement ledit phénomène. De surcroît, malgré l’entrée en vigueur du Règlement 2016/679 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, il possède une efficacité contestable, ne proposant pas de solution harmonisée au sein de l’Union européenne et étant dépendant de la bonne volonté et des moyens financiers, organisationnels et humains des Etats Membres. Les traitements alternatifs ou complémentaires au droit à la protection des données qui existent au sein de l’Union européenne, qui peuvent être répartis entre outils techniques, contractuels et législatifs, n’offrent qu’une appréhension indirecte du phénomène de circulation via un encadrement de son environnement cloud. Individuellement, ils ne permettent d’appréhender qu’un aspect très réduit du phénomène de circulation, de surcroît avec une efficacité plus ou moins grande. En outre, les outils techniques et contractuels n’ont pas la légitimité attachée aux outils législatifs. Néanmoins, associés les uns aux autres, ils permettent de cibler le phénomène de circulation des données de manière plus globale et efficace. / The legal framework applicable to the gathering and processing by cloud service providers of the personal data of their users raises questions for such users. De facto, there does not now exist an organized legal framework allowing for the regulation, at the European Union level and as a whole, of the flow of personal data in the cloud, whether directly or indirectly. It thus seems necessary to question the way law organized itself consequently and analyze the complementary and/or alternative treatments offered by law, which are less structurally organized and are mosaical, but are more pragmatic, realistic and politically sustainable. Historically, the flow of personal data has been dealt almost exclusively via the specific right to the protection of personal data, which derives from the European Union. Such right, often considered in opposition to the right to the free circulation of data, was initially an emanation of the right to privacy before being established as a fundamental right of the European Union. The treatment provided by the right to the protection of personal data, if it targets directly the data within the flow phenomena, only partly covers such phenomena. In addition, despite the entry into force of the Regulation 2016/679 on the protection of individuals with regard to the processing of personal data and on the free movement of such data, its effectiveness is questionable, not offering any harmonized solution within the European Union and being highly dependent on the goodwill and the financial, organizational and human means of the Member States. The complementary and/or alternative treatments to the right to the protection of personal data that exist within the European Union, which may be allocated among technical, contractual and regulatory tools, only approach the data flow phenomena indirectly by providing a framework to its environment. Individually, they only target one very limited aspect of the data flow phenomena, with more or less effectiveness. Furthermore, technical and contractual tools have not the legitimacy attached to the regulatory tools. However, associated one with another, they allow a more global and efficient targeting of the data flow phenomena.
306

Paris Stock Exchange 1870-1914 : financial information and portfolio choices / Place de Paris 1870-1914 : information financière et choix de portefeuille

Edlinger, Cécile 20 June 2016 (has links)
Cette thèse se compose de quatre chapitres dédiés à l'étude de la Bourse de Paris et des investissements français entre 1874 et 1914. Elle relève d'une démarche cliométrique : les faits historiques sont analysés en mobilisant les outils statistiques et théoriques de l'économie financière.Le premier chapitre participe à la réécriture de l'histoire de l'économie financière. Il démontre que les conseils financiers français avant 1914 relèvent d'une proto-science, prémices à la Théorie Moderne du Portefeuille (T.M.P.) développée à partir des années 1960s. Il justifie l'utilisation, dans le second chapitre, de la T.M.P. pour l'évaluation de la rationalité des choix de portefeuilles internationaux. Nous démontrons la rationalité des flux massifs de capitaux à l'étranger et en particulier à destination des pays européens. Nous constatons la rationalité de la préférence européenne des investisseurs français et le biais des investissements britanniques en faveur des "nouvelles nations". Le troisième chapitre présente une base de données inédite composée des rentabilités mensuelles de tous les types de titres cotés à la Bourse de Paris entre 1874 et 1914. Il s'agit d'un indicateur fiable des performances de la Bourse de Paris et de l'information publique en France sur cette période. Dans le quatrième chapitre, nous réalisons la première évaluation des conseils de l'analyste financier français A. Neymarck (1913), à la veille de 1914. Nous montrons que le risque de chaque catégorie d'actifs est correctement perçu, l'existence d'une hiérarchisation des portefeuilles proposés en fonction de la richesse de l'investisseur et mettons en avant les imperfections de ces conseils. / This PhD dissertation is composed of four chapters dedicated to the study of the Paris Stock Exchange and French investments from 1874 to 1914. It follows a cliometric approach, whereby historical facts are analysed using the statistical and theoretical tools of financial economics.The first chapter contributes to a re-evaluation of the history of financial economics. It shows that French financial advice before 1914 was part of a proto-science which laid the foundations for the Modern Portfolio Theory (M.P.T.) developed from the 1960s onwards. This finding justifies the use of the M.P.T in the second chapter to assess the rationality of international portfolio choices. We demonstrate the rationality of huge capital flows toward foreign countries and in particular toward European countries. We note the rationality of the French investor's preference for European securities, and the bias towards "young nations" in British investments. The third chapter introduces an original database composed of the monthly returns for all the types of securities listed on the Paris Stock Exchange from 1874 to 1914. It is a reliable indicator of Paris Stock Exchange performances and of the public information available in France at that time. In the fourth chapter, we make the first assessment of the advice provided by the French financial analyst A. Neymarck (1913), prior to 1914. We show that the risk of each asset category is correctly evaluated, evidence the ranking of the suggested portfolios according to the investors' wealth, and pinpoint the few imperfections of his advice.
307

QoS coopérative pour l'adaptabilité des protocoles de transport dans le contexte des activités de groupe / Cooperative QoS for transport protocols adaptability within group activities

Armando, François 17 February 2010 (has links)
Les travaux présentés dans cette thèse s’inscrivent dans le thème général de l’adaptabilité des systèmes de communication pour la QoS. La contribution proposée porte sur l’adaptation dynamique de protocoles de Transport, pour répondre aux besoins en QoS d’applications multimédia distribuées dans un contexte d’activités coopératives de groupe de type opérations d’intervention d’urgence. La première partie a été réalisée dans le cadre du projet européen projet IST NETQoS et porte sur une proposition d’architecture conceptuelle pour la mise en oeuvre de l’adaptation au niveau Transport. Suivant une approche basée politique, les contributions exposées portent sur l’élaboration de l’architecture du composant central du système, chargé de concevoir, d’adapter et de faire appliquer des politiques opérationnelles aux entités en charge de la gestion directe de la QoS. La deuxième partie porte sur le problème de la décision et propose une approche originale de gestion collaborative des protocoles de Transport pour la QoS dans les activités coopératives de groupe. L’approche explorée vise à privilégier les connexions de Transport les plus prioritaires au détriment des connexions les moins prioritaires. Nous nous intéressons au problème de la répartition de la bande passante entre ces connexions. Après avoir défini le problème et les données nécessaires à sa résolution, nous le formulons sous la forme d’un problème de programmation linéaire résolu grâce à la méthode du simplexe. Deux critères de minimisation sont envisagés et discutés. Enfin, des mesures de performance réalisées en simulation permettent de mettre en évidence le bien fondé et les limites des solutions proposées / The results presented in this thesis deal with the general area of QoS oriented self-adaptive communication systems. The proposed contribution deals with dynamic adaptation of configurable (TCP-like) Transport protocols. The goal is to tackle the quality of service (QoS) requirements of multimedia applications distributed in cooperative group activities such as the ones involved in emergency operations. The first part of the thesis has been performed within the European IST project NETQoS. A conceptual architecture is proposed for managing adaptation at the Transport level. Following a policy-based approach, the exposed contributions particularly deal with design, implementation and test of the central component of the architecture, aimed at elaborating, adapting and making them enforced the operational policy having to be deployed on the managed Transport-level entities. The second part of the thesis deals with the decision problem. An original approach is proposed to manage Transport level protocols in a collaborative way within group cooperative activities. The proposed approach is aimed at privileging the most priority Transport connections at the expense of the less priority ones. The bandwidth distribution between the connections is considered in the proposed study. The problem is formulated as a linear programming problem which is resolved using the Simplex method. Two criteria are elaborated and discussed. Finally, performance assessments performed in ns-2 simulation allow showing the benefits and limitations of the proposed solutions
308

Ordonnancement hybride des applications flots de données sur des systèmes embarqués multi-coeurs / Hybrid scheduling of streaming applications to account for interprocessor communication in embedded manycores

Dkhil, Amira 14 April 2015 (has links)
Les systèmes embarqués sont de plus en plus présents dans l'industrie comme dans la vie quotidienne. Une grande partie de ces systèmes comprend des applications effectuant du traitement intensif des données: elles utilisent de nombreux filtres numériques, où les opérations sur les données sont répétitives et ont un contrôle limité. Les graphes "flots de données", grâce à leur déterminisme fonctionnel inhérent, sont très répandus pour modéliser les systèmes embarqués connus sous le nom de "data-driven". L'ordonnancement statique et périodique des graphes flot de données a été largement étudié, surtout pour deux modèles particuliers: SDF et CSDF. Dans cette thèse, on s'intéresse plus particulièrement à l'ordonnancement périodique des graphes CSDF. Le problème consiste à identifier des séquences périodiques infinies d'actionnement des acteurs qui aboutissent à des exécutions complètes à buffers bornés. L'objectif est de pouvoir aborder ce problème sous des angles différents : maximisation de débit, minimisation de la latence et minimisation de la capacité des buffers. La plupart des travaux existants proposent des solutions pour l'optimisation du débit et négligent le problème d'optimisation de la latence et propose même dans certains cas des ordonnancements qui ont un impact négatif sur elle afin de conserver les propriétés de périodicité. On propose dans cette thèse un ordonnancement hybride, nommé Self-Timed Périodique (STP), qui peut conserver les propriétés d'un ordonnancement périodique et à la fois améliorer considérablement sa performance en terme de latence. / One of the most important aspects of parallel computing is its close relation to the underlying hardware and programming models. In this PhD thesis, we take dataflow as the basic model of computation, as it fits the streaming application domain. Cyclo-Static Dataflow (CSDF) is particularly interesting because this variant is one of the most expressive dataflow models while still being analyzable at design time. Describing the system at higher levels of abstraction is not sufficient, e.g. dataflow have no direct means to optimize communication channels generally based on shared buffers. Therefore, we need to link the dataflow MoCs used for performance analysis of the programs, the real time task models used for timing analysis and the low-level model used to derive communication times. This thesis proposes a design flow that meets these challenges, while enabling features such as temporal isolation and taking into account other challenges such as predictability and ease of validation. To this end, we propose a new scheduling policy noted Self-Timed Periodic (STP), which is an execution model combining Self-Timed Scheduling (STS) with periodic scheduling. In STP scheduling, actors are no longer strictly periodic but self-timed assigned to periodic levels: the period of each actor under periodic scheduling is replaced by its worst-case execution time. Then, STP retains some of the performance and flexibility of self-timed schedule, in which execution times of actors need only be estimates, and at the same time makes use of the fact that with a periodic schedule we can derive a tight estimation of the required performance metrics.
309

Conception d'un système de partage de données adapté à un environnement de Fog Computing / A sharing data system adapted to a Fog Computing environment

Confais, Bastien 10 July 2018 (has links)
L’informatique utilitaire a évolué au fil des années pour aboutir à ce que nous appelons aujourd’hui le Cloud Computing. Pourtant, ces infrastructures ne sont pas adaptées pour répondre aux besoins de l’Internet des Objets ayant des besoins de calculs à faible latence malgré des ressources limitées. C’est pourquoi, en 2012, Cisco a proposé le paradigme de Fog Computing, consistant à répartir des serveurs sur de nombreux sites placés près des utilisateurs. Dans cette thèse, nous cherchons à créer une solution de stockage unifiée entre les différents sites de Fog. Notre première contribution consiste à évaluer si les solutions de stockage existantes peuvent être utilisées dans un tel environnement. Nous montrons que la solution de stockage InterPlanetary FileSystem (IPFS) reposant sur un protocole similaire à BitTorrent et une table de hachage distribuée (DHT) pour localiser les données est la plus prometteuse. Toutefois, le trafic réseau inter-sites généré impacte négativement les temps de lecture. Notre seconde contribution consiste à coupler IPFS au système de fichiers distribué RozoFS pour limiter ces échanges inter-sites dans le cas d’accès à des données stockées sur le site local. Enfin, notre dernier axe de recherche vise à localiser les données grâce à un protocole reposant sur un arbre des plus courts chemins, de façon à confiner le trafic réseau et à privilégier les nœuds atteignables avec une faible latence. Grâce à de nombreuses expérimentations sur la plateforme Grid’5000, nous montrons que le couplage à un système de fichiers réduit en moyenne de 34% les temps d’accès et que notre protocole de localisation permet un gain de 20% du temps de localisation des données. / Utility Computing has evolved for many years leading to the infrastructure we know today as Cloud Computing. Nevertheless, these infrastructures are unable to satisfy the needs of the Internet of Things which requires low latency computing despite limited resources. In 2012, Cisco proposed a paradigm called Fog Computing, consisting of deploying a huge number of small servers, spread on many sites located at the edge of the network, close to the end devices. In this thesis, we try to create a seamless storage solution between the different Fog sites. Our first contribution consists in comparing existing storage solution and check if they can be used in a such environment. We show that InterPlanetary FileSystem (IPFS), an object store relying on a BitTorrent like protocol and a Distributed Hash Table is a promising solution. Nevertheless, the amount of network traffic exchanged between the sites to locate the data is important and has a non-negligible impact on the overall performance. Our second contribution consists in coupling IPFS with RozoFS, a distributed filesystem deployed on each site to limit the use of the DHT when accessed data are stored on the local site. Finally, we proposed to replace the distributed hash table by a location mechanism relying on a shortest path tree built on the physical topology, in order to contain the network traffic and to first request nodes at a close location, reachable with a low latency. By performing many experiments on the Grid’5000 testbed, we show that the coupling of IPFS with a Scale-Out NAS reduces by 34 % in average the access times and that our protocol to locate the objects reduces by 20 % the time to locate the data.
310

Runtime multicore scheduling techniques for dispatching parameterized signal and vision dataflow applications on heterogeneous MPSoCs / Techniques d'ordonnancement en ligne pour la répartition d'applications flot de données de traitement de signal et de l'image sur architectures multi-cœur hétérogène embarqué

Heulot, Julien 24 November 2015 (has links)
Une tendance importante dans le domaine de l’embarqué est l’intégration de plus en plus d’éléments de calcul dans les systèmes multiprocesseurs sur puce (MPSoC). Cette tendance est due en partie aux limitations des puissances individuelles de ces éléments causées par des considérations de consommation d’énergie. Dans le même temps, en raison de leur sophistication croissante, les applications de traitement du signal ont des besoins en puissance de calcul de plus en plus dynamique. Dans la conception et le développement d’applications de traitement de signal multicoeur, l’un des principaux défis consiste à répartir efficacement les différentes tâches sur les éléments de calcul disponibles, tout en tenant compte des changements dynamiques des fonctionnalités de l’application et des ressources disponibles. Une utilisation inefficace peut conduire à une durée de traitement plus longue et/ou une consommation d’énergie plus élevée, ce qui fait de la répartition des tâches sur un système multicoeur une tâche difficile à résoudre. Les modèles de calcul (MoC) flux de données sont communément utilisés dans la conception de systèmes de traitement du signal. Ils décomposent la fonctionnalité de l’application en acteurs qui communiquent exclusivement par l’intermédiaire de canaux. L’interconnexion des acteurs et des canaux de communication est modélisée et manipulée comme un graphe orienté, appelé un graphique de flux de données. Il existe différents MoCs de flux de données qui offrent différents compromis entre la prédictibilité et l’expressivité. Ces modèles de calculs sont communément utilisés dans la conception de systèmes de traitement du signal en raison de leur analysabilité et leur expressivité naturelle du parallélisme de l’application. Dans cette thèse, une nouvelle méthode de répartition de tâches est proposée afin de répondre au défi que propose la programmation multicoeur. Cette méthode de répartition de tâches prend ses décisions en temps réel afin d’optimiser le temps d’exécution global de l’application. Les applications sont décrites en utilisant le modèle paramétrée et interfacé flux de données (PiSDF). Ce modèle permet de décrire une application paramétrée en autorisant des changements dans ses besoins en ressources de calcul lors de l’exécution. A chaque exécution, le modèle de flux de données paramétré est déroulé en un modèle intermédiaire faisant apparaitre toute les tâches de l’application ainsi que leurs dépendances. Ce modèle est ensuite utilisé pour répartir efficacement les tâches de l’application. La méthode proposé a été testée et validé sur plusieurs applications des domaines de la vision par ordinateur, du traitement du signal et du multimédia. / An important trend in embedded processing is the integration of increasingly more processing elements into Multiprocessor Systemson- Chip (MPSoC). This trend is due in part to limitations in processing power of individual elements that are caused by power consumption considerations. At the same time, signal processing applications are becoming increasingly dynamic in terms of their hardware resource requirements due to the growing sophistication of algorithms to reach higher levels of performance. In design and implementation of multicore signal processing systems, one of the main challenges is to dispatch computational tasks efficiently onto the available processing elements while taking into account dynamic changes in application functionality and resource requirements. An inefficient use can lead to longer processing times and higher energy consumption, making multicore task scheduling a very difficult problem to solve. Dataflow process network Models of Computation (MoCs) are widely used in design of signal processing systems. It decomposes application functionality into actors that communicate data exclusively through channels. The interconnection of actors and communication channels is modeled and manipulated as a directed graph, called a dataflow graph. There are different dataflow MoCs which offer different trade-off between predictability and expressiveness. These MoCs are widely used in design of signal processing systems due to their analyzability and their natural parallel expressivity. In this thesis, we propose a novel scheduling method to address multicore scheduling challenge. This scheduling method determines scheduling decisions strategically at runtime to optimize the overall execution time of applications onto heterogeneous multicore processing resources. Applications are described using the Parameterized and Interfaced Synchronous DataFlow (PiSDF) MoC. The PiSDF model allows describing parameterized application, making possible changes in application’s resource requirement at runtime. At each execution, the parameterized dataflow is then transformed into a locally static one used to efficiently schedule the application with an a priori knowledge of its behavior. The proposed scheduling method have been tested and benchmarked on multiple state-of-the-art applications from computer vision, signal processing and multimedia domains.

Page generated in 0.0416 seconds