• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 89
  • 59
  • 11
  • Tagged with
  • 159
  • 159
  • 79
  • 79
  • 46
  • 31
  • 30
  • 28
  • 26
  • 26
  • 26
  • 24
  • 22
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Détection des événements rares dans des vidéos / Detecting rare events in video sequences

Pop, Ionel 23 September 2010 (has links)
Le travail présenté dans cette étude se place dans le contexte de l’analyse automatique des vidéos. A cause du nombre croissant des données vidéo, il est souvent difficile, voire impossible qu’un ou plusieurs opérateurs puissent les regarder toutes. Une demande récurrente est d’identifier les moments dans la vidéo quand il y a quelque chose d’inhabituel qui se passe, c’est-à-dire la détection des événements anormaux.Nous proposons donc plusieurs algorithmes permettant d’identifier des événements inhabituels, en faisant l’hypothèse que ces événements ont une faible probabilité. Nous abordons plusieurs types d’événements, de l’analyse des zones en mouvement à l’analyse des trajectoires des objets suivis.Après avoir dédié une partie de la thèse à la construction d’un système de suivi,nous proposons plusieurs mesures de similarité entre des trajectoires. Ces mesures, basées sur DTW (Dynamic Time Warping), estiment la similarité des trajectoires prenant en compte différents aspects : spatial, mais aussi temporel, pour pouvoir - par exemple - faire la différence entre des trajectoires qui ne sont pas parcourues de la même façon (en termes de vitesse de déplacement). Ensuite, nous construisons des modèles de trajectoires, permettant de représenter les comportements habituels des objets pour pouvoir ensuite détecter ceux qui s’éloignent de la normale.Pour pallier les défauts de suivi qui apparaissent dans la pratique, nous analysons les vecteurs de flot optique et nous construisons une carte de mouvement. Cette carte modélise sous la forme d’un codebook les directions privilégiées qui apparaissent pour chaque pixel, permettant ainsi d’identifier tout déplacement anormal, sans avoir pour autant la notion d’objet suivi. En utilisant la cohérence temporelle, nous pouvons améliorer encore plus le taux de détection, affecté par les erreurs d’estimation de flot optique. Dans un deuxième temps, nous changeons la méthode de constructions de cette carte de mouvements, pour pouvoir extraire des caractéristiques de plus haut niveau — l’équivalent des trajectoires, mais toujours sans nécessiter le suivi des objets. Nous pouvons ainsi réutiliser partiellement l’analyse des trajectoires pour détecter des événements rares.Tous les aspects présentés dans cette thèse ont été implémentés et nous avons construit certaines applications, comme la prédiction des déplacements des objets ou la mémorisation et la recherche des objets suivis. / The growing number of video data makes often difficult, even impossible, any attemptof watching them entirely. In the context of automatic analysis of videos, a recurring request is to identify moments in the video when something unusual happens.We propose several algorithms to identify unusual events, making the hypothesis that these events have a low probability. We address several types of events, from those generates by moving areas to the trajectories of objects tracked. In the first part of the study, we build a simple tracking system. We propose several measures of similarity between trajectories. These measures give an estimate of the similarity of trajectories by taking into account both spatial and/or temporal aspects. It is possible to differentiate between objects moving on the same path, but with different speeds. Based on these measures, we build models of trajectories representing the common behavior of objects, so that we can identify those that are abnormal.We noticed that the tracking yields bad results, especially in crowd situations. Therefore, we use the optical flow vectors to build a movement model based on a codebook. This model stores the preferred movement directions for each pixel. It is possible to identify abnormal movement at pixel-level, without having to use a tracker. By using temporal coherence, we can further improve the detection rate, affected by errors of estimation of optic flow. In a second step, we change the method of construction of this model. With the new approach, we can extract higher-level features — the equivalent trajectories, but still without the notion of object tracking. In this situation, we can reuse partial trajectory analysis to detect rare events.All aspects presented in this study have been implemented. In addition, we have design some applications, like predicting the trajectories of visible objects or storing and retrieving tracked objects in a database.
152

Estimation du mouvement bi-dimensionnel de la paroi artérielle en imagerie ultrasonore par une approche conjointe de segmentation et de speckle tracking / Estimation of the bi-dimensional motion of the arterial wall in ultrasound imaging with a combined approach of segmentation and speckle tracking

Zahnd, Guillaume 10 December 2012 (has links)
Ce travail de thèse est axé sur le domaine du traitement d'images biomédicales. L'objectif de notre étude est l'estimation des paramètres traduisant les propriétés mécaniques de l'artère carotide in vivo en imagerie échographique, dans une optique de détection précoce de la pathologie cardiovasculaire. L'analyse du mouvement longitudinal des tissus de la paroi artérielle, i.e. dans la même direction que le flux sanguin, représente la motivation majeure de ce travail. Les trois contributions principales proposées dans ce travail sont i) le développement d'un cadre méthodologique original et semi-automatique, dédié à la segmentation et à l'estimation du mouvement de la paroi artérielle dans des séquences in vivo d'images ultrasonores mode-B, ii) la description d'un protocole de génération d'une référence, faisant intervenir les opérations manuelles de plusieurs experts, dans le but de quantifier la précision des résultats de notre méthode malgré l'absence de vérité terrain inhérente à la modalité échographique, et iii) l'évaluation clinique de l'association entre les paramètres mécaniques et dynamiques de la paroi carotidienne et les facteurs de risque cardiovasculaire dans le cadre de la détection précoce de l'athérosclérose. Nous proposons une méthode semi-automatique, basée sur une approche conjointe de segmentation des contours de la paroi et d'estimation du mouvement des tissus. L'extraction de la position des interfaces est réalisée via une approche spécifique à la structure morphologique de la carotide, basée sur une stratégie de programmation dynamique exploitant un filtrage adapté. L'estimation du mouvement est réalisée via une méthode robuste de mise en correspondance de blocs (block matching), basée sur la connaissance du déplacement a priori ainsi que sur la mise à jour temporelle du bloc de référence par un filtre de Kalman spécifique. La précision de notre méthode, évaluée in vivo, correspond au même ordre de grandeur que celle résultant des opérations manuelles réalisées par des experts, et reste sensiblement meilleure que celle obtenue avec deux autres méthodes traditionnelles (i.e. une implémentation classique de la technique de block matching et le logiciel commercial Velocity Vector Imaging). Nous présentons également quatre études cliniques réalisées en milieu hospitalier, où nous évaluons l'association entre le mouvement longitudinal et les facteurs de risque cardiovasculaire. Nous suggérons que le mouvement longitudinal, qui représente un marqueur de risque émergent et encore peu étudié, constitue un indice pertinent et complémentaire aux marqueurs traditionnels dans la caractérisation de la physiopathologie artérielle, reflète le niveau de risque cardiovasculaire global, et pourrait être bien adapté à la détection précoce de l'athérosclérose. / This thesis is focused on the domain of bio-medical image processing. The aim of our study is to assess in vivo the parameters traducing the mechanical properties of the carotid artery in ultrasound imaging, for early detection of cardiovascular diseases. The analysis of the longitudinal motion of the arterial wall tissues, i.e. in the same direction as the blood flow, represents the principal motivation of this work. The three main contributions proposed in this work are i) the development of an original and semi-automatic methodological framework, dedicated to the segmentation and motion estimation of the arterial wall in in vivo ultrasound B-mode image sequences, ii) the description of a protocol aiming to generate a reference, involving the manual tracings of several experts, in the objective to quantify the accuracy of the results of our method despite the absence of ground truth inherent to ultrasound imaging, and iii) the clinical evaluation of the association between the mechanical and dynamical parameters of the arterial wall and the cardiovascular risk factors, for early detection of atherosclerosis. We propose a semi-automatic method, based on a combined approach of wall segmentation and tissues motion estimation. The extraction on the interfaces position is realized via an approach specific to the morphological structure of the carotid artery, based on a strategy of dynamic programming using a matched filter. The motion estimation is performed via a robust block matching method, based on the a priori knowledge of the displacement as well as the temporal update of the reference block with a specific Kalman filter. The accuracy of our method, evaluated in vivo, corresponds to the same order of magnitude as the one resulting from the manual operations performed by experts, and is significantly higher than the one obtained from two other classical methods (i.e. a classical implementation of the block matching technique, and the VVI commercial software). We also present four clinical studies, and we evaluate the association between longitudinal motion and cardiovascular risk factors. We suggest that the longitudinal motion, which represents an emerging cardiovascular risk marker that has been only few studied yet, constitutes a pertinent and complementary marker aiming at the characterization of arterial physio-pathology, traduces the overall cardiovascular risk level, and could be well suited to the early detection of the atherosclerosis.
153

On two sequential problems : the load planning and sequencing problem and the non-normal recurrent neural network

Goyette, Kyle 07 1900 (has links)
The work in this thesis is separated into two parts. The first part deals with the load planning and sequencing problem for double-stack intermodal railcars, an operational problem found at many rail container terminals. In this problem, containers must be assigned to a platform on which the container will be loaded, and the loading order must be determined. These decisions are made with the objective of minimizing the costs associated with handling the containers, as well as minimizing the cost of containers left behind. The deterministic version of the problem can be cast as a shortest path problem on an ordered graph. This problem is challenging to solve because of the large size of the graph. We propose a two-stage heuristic based on the Iterative Deepening A* algorithm to compute solutions to the load planning and sequencing problem within a five-minute time budget. Next, we also illustrate how a Deep Q-learning algorithm can be used to heuristically solve the same problem.The second part of this thesis considers sequential models in deep learning. A recent strategy to circumvent the exploding and vanishing gradient problem in recurrent neural networks (RNNs) is to enforce recurrent weight matrices to be orthogonal or unitary. While this ensures stable dynamics during training, it comes at the cost of reduced expressivity due to the limited variety of orthogonal transformations. We propose a parameterization of RNNs, based on the Schur decomposition, that mitigates the exploding and vanishing gradient problem, while allowing for non-orthogonal recurrent weight matrices in the model. / Le travail de cette thèse est divisé en deux parties. La première partie traite du problème de planification et de séquencement des chargements de conteneurs sur des wagons, un problème opérationnel rencontré dans de nombreux terminaux ferroviaires intermodaux. Dans ce problème, les conteneurs doivent être affectés à une plate-forme sur laquelle un ou deux conteneurs seront chargés et l'ordre de chargement doit être déterminé. Ces décisions sont prises dans le but de minimiser les coûts associés à la manutention des conteneurs, ainsi que de minimiser le coût des conteneurs non chargés. La version déterministe du problème peut être formulé comme un problème de plus court chemin sur un graphe ordonné. Ce problème est difficile à résoudre en raison de la grande taille du graphe. Nous proposons une heuristique en deux étapes basée sur l'algorithme Iterative Deepening A* pour calculer des solutions au problème de planification et de séquencement de la charge dans un budget de cinq minutes. Ensuite, nous illustrons également comment un algorithme d'apprentissage Deep Q peut être utilisé pour résoudre heuristiquement le même problème. La deuxième partie de cette thèse examine les modèles séquentiels en apprentissage profond. Une stratégie récente pour contourner le problème de gradient qui explose et disparaît dans les réseaux de neurones récurrents (RNN) consiste à imposer des matrices de poids récurrentes orthogonales ou unitaires. Bien que cela assure une dynamique stable pendant l'entraînement, cela se fait au prix d'une expressivité réduite en raison de la variété limitée des transformations orthogonales. Nous proposons une paramétrisation des RNN, basée sur la décomposition de Schur, qui atténue les problèmes de gradient, tout en permettant des matrices de poids récurrentes non orthogonales dans le modèle.
154

Modélisation et optimisation de la réponse à des vaccins et à des interventions immunothérapeutiques : application au virus Ebola et au VIH / Modeling and optimizing the response to vaccines and immunotherapeutic interventions : application to Ebola virus and HIV

Pasin, Chloé 30 October 2018 (has links)
Les vaccins ont été une grande réussite en matière de santé publique au cours des dernières années. Cependant, le développement de vaccins efficaces contre les maladies infectieuses telles que le VIH ou le virus Ebola reste un défi majeur. Cela peut être attribué à notre manque de connaissances approfondies en immunologie et sur le mode d'action de la mémoire immunitaire. Les modèles mathématiques peuvent aider à comprendre les mécanismes de la réponse immunitaire, à quantifier les processus biologiques sous-jacents et à développer des vaccins fondés sur un rationnel scientifique. Nous présentons un modèle mécaniste de la dynamique de la réponse immunitaire humorale après injection d'un vaccin Ebola basé sur des équations différentielles ordinaires. Les paramètres du modèle sont estimés par maximum de vraisemblance dans une approche populationnelle qui permet de quantifier le processus de la réponse immunitaire et ses facteurs de variabilité. En particulier, le schéma vaccinal n'a d'impact que sur la réponse à court terme, alors que des différences significatives entre des sujets de différentes régions géographiques sont observées à plus long terme. Cela pourrait avoir des implications dans la conception des futurs essais cliniques. Ensuite, nous développons un outil numérique basé sur la programmation dynamique pour optimiser des schémas d'injections répétées. En particulier, nous nous intéressons à des patients infectés par le VIH sous traitement mais incapables de reconstruire leur système immunitaire. Des injections répétées d'un produit immunothérapeutique (IL-7) sont envisagées pour améliorer la santé de ces patients. Le processus est modélisé par un modèle de Markov déterministe par morceaux et des résultats récents de la théorie du contrôle impulsionnel permettent de résoudre le problème numériquement à l'aide d'une suite itérative. Nous montrons dans une preuve de concept que cette méthode peut être appliquée à un certain nombre de pseudo-patients. Dans l'ensemble, ces résultats s'intègrent dans un effort de développer des méthodes sophistiquées pour analyser les données d'essais cliniques afin de répondre à des questions cliniques concrètes. / Vaccines have been one of the most successful developments in public health in the last years. However, a major challenge still resides in developing effective vaccines against infectious diseases such as HIV or Ebola virus. This can be attributed to our lack of deep knowledge in immunology and the mode of action of immune memory. Mathematical models can help understanding the mechanisms of the immune response, quantifying the underlying biological processes and eventually developing vaccines based on a solid rationale. First, we present a mechanistic model for the dynamics of the humoral immune response following Ebola vaccine immunizations based on ordinary differential equations. The parameters of the model are estimated by likelihood maximization in a population approach, which allows to quantify the process of the immune response and its factors of variability. In particular, the vaccine regimen is found to impact only the response on a short term, while significant differences between subjects of different geographic locations are found at a longer term. This could have implications in the design of future clinical trials. Then, we develop a numerical tool based on dynamic programming for optimizing schedule of repeated injections. In particular, we focus on HIV-infected patients under treatment but unable to recover their immune system. Repeated injections of an immunotherapeutic product (IL-7) are considered for improving the health of these patients. The process is first by a piecewise deterministic Markov model and recent results of the impulse control theory allow to solve the problem numerically with an iterative sequence. We show in a proof-of-concept that this method can be applied to a number of pseudo-patients. All together, these results are part of an effort to develop sophisticated methods for analyzing data from clinical trials to answer concrete clinical questions.
155

Sequential Machine learning Approaches for Portfolio Management

Chapados, Nicolas 11 1900 (has links)
No description available.
156

Stratégies optimales d'investissement et de consommation pour des marchés financiers de type"spread" / Optimal investment and consumption strategies for spread financial markets

Albosaily, Sahar 07 December 2018 (has links)
Dans cette thèse, on étudie le problème de la consommation et de l’investissement pour le marché financier de "spread" (différence entre deux actifs) défini par le processus Ornstein-Uhlenbeck (OU). Ce manuscrit se compose de sept chapitres. Le chapitre 1 présente une revue générale de la littérature et un bref résumé des principaux résultats obtenus dans cetravail où différentes fonctions d’utilité sont considérées. Dans le chapitre 2, on étudie la stratégie optimale de consommation / investissement pour les fonctions puissances d’utilité pour un intervalle de temps réduit a 0 < t < T < T0. Dans ce chapitre, nous étudions l’équation de Hamilton–Jacobi–Bellman (HJB) par la méthode de Feynman - Kac (FK). L’approximation numérique de la solution de l’équation de HJB est étudiée et le taux de convergence est établi. Il s’avère que dans ce cas, le taux de convergencedu schéma numérique est super–géométrique, c’est-à-dire plus rapide que tous ceux géométriques. Les principaux théorèmes sont énoncés et des preuves de l’existence et de l’unicité de la solution sont données. Un théorème de vérification spécial pour ce cas des fonctions puissances est montré. Le chapitre 3 étend notre approche au chapitre précédent à la stratégie de consommation/investissement optimale pour tout intervalle de temps pour les fonctions puissances d’utilité où l’exposant γ doit être inférieur à 1/4. Dans le chapitre 4, on résout le problème optimal de consommation/investissement pour les fonctions logarithmiques d’utilité dans le cadre du processus OU multidimensionnel en se basant sur la méthode de programmation dynamique stochastique. En outre, on montre un théorème de vérification spécial pour ce cas. Le théorème d’existence et d’unicité pour la solution classique de l’équation de HJB sous forme explicite est également démontré. En conséquence, les stratégies financières optimales sont construites. Quelques exemples sont donnés pour les cas scalaires et pour les cas multivariés à volatilité diagonale. Le modèle de volatilité stochastique est considéré dans le chapitre 5 comme une extension du chapitre précédent des fonctions logarithmiques d’utilité. Le chapitre 6 propose des résultats et des théorèmes auxiliaires nécessaires au travail.Le chapitre 7 fournit des simulations numériques pour les fonctions puissances et logarithmiques d’utilité. La valeur du point fixe h de l’application de FK pour les fonctions puissances d’utilité est présentée. Nous comparons les stratégies optimales pour différents paramètres à travers des simulations numériques. La valeur du portefeuille pour les fonctions logarithmiques d’utilité est également obtenue. Enfin, nous concluons nos travaux et présentons nos perspectives dans le chapitre 8. / This thesis studies the consumption/investment problem for the spread financial market defined by the Ornstein–Uhlenbeck (OU) process. Recently, the OU process has been used as a proper financial model to reflect underlying prices of assets. The thesis consists of 8 Chapters. Chapter 1 presents a general literature review and a short view of the main results obtained in this work where different utility functions have been considered. The optimal consumption/investment strategy are studied in Chapter 2 for the power utility functions for small time interval, that 0 < t < T < T0. Main theorems have been stated and the existence and uniqueness of the solution has been proven. Numeric approximation for the solution of the HJB equation has been studied and the convergence rate has been established. In this case, the convergence rate for the numerical scheme is super geometrical, i.e., more rapid than any geometrical ones. A special verification theorem for this case has been shown. In this chapter, we have studied the Hamilton–Jacobi–Bellman (HJB) equation through the Feynman–Kac (FK) method. The existence and uniqueness theorem for the classical solution for the HJB equation has been shown. Chapter 3 extended our approach from the previous chapter of the optimal consumption/investment strategies for the power utility functions for any time interval where the power utility coefficient γ should be less than 1/4. Chapter 4 addressed the optimal consumption/investment problem for logarithmic utility functions for multivariate OU process in the base of the stochastic dynamical programming method. As well it has been shown a special verification theorem for this case. It has been demonstrated the existence and uniqueness theorem for the classical solution for the HJB equation in explicit form. As a consequence the optimal financial strategies were constructed. Some examples have been stated for a scalar case and for a multivariate case with diagonal volatility. Stochastic volatility markets has been considered in Chapter 5 as an extension for the previous chapter of optimization problem for the logarithmic utility functions. Chapter 6 proposed some auxiliary results and theorems that are necessary for the work. Numerical simulations has been provided in Chapter 7 for power and logarithmic utility functions. The fixed point value h for power utility has been presented. We study the constructed strategies by numerical simulations for different parameters. The value function for the logarithmic utilities has been shown too. Finally, Chapter 8 reflected the results and possible limitations or solutions
157

Route choice and traffic equilibrium modeling in multi-modal and activity-based networks

Zimmermann, Maëlle 06 1900 (has links)
No description available.
158

Accelerated algorithms for temporal difference learning methods

Rankawat, Anushree 12 1900 (has links)
L'idée centrale de cette thèse est de comprendre la notion d'accélération dans les algorithmes d'approximation stochastique. Plus précisément, nous tentons de répondre à la question suivante : Comment l'accélération apparaît-elle naturellement dans les algorithmes d'approximation stochastique ? Nous adoptons une approche de systèmes dynamiques et proposons de nouvelles méthodes accélérées pour l'apprentissage par différence temporelle (TD) avec approximation de fonction linéaire : Polyak TD(0) et Nesterov TD(0). Contrairement aux travaux antérieurs, nos méthodes ne reposent pas sur une conception des méthodes de TD comme des méthodes de descente de gradient. Nous étudions l'interaction entre l'accélération, la stabilité et la convergence des méthodes accélérées proposées en temps continu. Pour établir la convergence du système dynamique sous-jacent, nous analysons les modèles en temps continu des méthodes d'approximation stochastique accélérées proposées en dérivant la loi de conservation dans un système de coordonnées dilaté. Nous montrons que le système dynamique sous-jacent des algorithmes proposés converge à un rythme accéléré. Ce cadre nous fournit également des recommandations pour le choix des paramètres d'amortissement afin d'obtenir ce comportement convergent. Enfin, nous discrétisons ces ODE convergentes en utilisant deux schémas de discrétisation différents, Euler explicite et Euler symplectique, et nous analysons leurs performances sur de petites tâches de prédiction linéaire. / The central idea of this thesis is to understand the notion of acceleration in stochastic approximation algorithms. Specifically, we attempt to answer the question: How does acceleration naturally show up in SA algorithms? We adopt a dynamical systems approach and propose new accelerated methods for temporal difference (TD) learning with linear function approximation: Polyak TD(0) and Nesterov TD(0). In contrast to earlier works, our methods do not rely on viewing TD methods as gradient descent methods. We study the interplay between acceleration, stability, and convergence of the proposed accelerated methods in continuous time. To establish the convergence of the underlying dynamical system, we analyze continuous-time models of the proposed accelerated stochastic approximation methods by deriving the conservation law in a dilated coordinate system. We show that the underlying dynamical system of our proposed algorithms converges at an accelerated rate. This framework also provides us recommendations for the choice of the damping parameters to obtain this convergent behavior. Finally, we discretize these convergent ODEs using two different discretization schemes, explicit Euler, and symplectic Euler, and analyze their performance on small, linear prediction tasks.
159

Energy-aware scheduling : complexity and algorithms / Ordonnancement sous contrainte d'énergie : complexité et algorithmes

Renaud-Goud, Paul 05 July 2012 (has links)
Dans cette thèse, nous nous sommes intéressés à des problèmes d'ordonnancement sous contrainte d'énergie, puisque la réduction de l'énergie est devenue une nécessité, tant sur le plan économique qu'écologique. Dans le premier chapitre, nous exhibons des bornes strictes sur l'énergie d'un algorithme classique qui minimise le temps d'exécution de tâches indépendantes. Dans le second chapitre, nous ordonnançons plusieurs applications chaînées de type « streaming », et nous étudions des problèmes contraignant l'énergie, la période et la latence. Nous effectuons une étude de complexité exhaustive, et décrivons les performances de nouvelles heuristiques. Dans le troisième chapitre, nous étudions le problème de placement de répliques dans un réseau arborescent. Nous nous plaçons dans un cadre dynamique, et nous bornons à minimiser l'énergie. Après une étude de complexité, nous confirmons la qualité de nos heuristiques grâce à un jeu complet de simulations. Dans le quatrième chapitre, nous revenons aux applications « streaming », mais sous forme de graphes série-parallèles, et nous tentons de les placer sur un processeur multi-cœur. La découverte d'un algorithme polynomial sur un problème simple nous permet la conception d'heuristiques sur le problème le plus général dont nous avons établi la NP-complétude. Dans le cinquième chapitre, nous étudions des bornes énergétiques de politiques de routage dans des processeurs multi-cœurs, en comparaison avec le routage classique XY, et développons de nouvheuristiques de routage. Dans le dernier chapitre, nous étudions expérimentalement le placement d'applications sous forme de DAG sur des machines réelles. / In this thesis we have tackled a few scheduling problems under energy constraint, since the energy issue is becoming crucial, for both economical and environmental reasons. In the first chapter, we exhibit tight bounds on the energy metric of a classical algorithm that minimizes the makespan of independent tasks. In the second chapter, we schedule several independent but concurrent pipelined applications and address problems combining multiple criteria, which are period, latency and energy. We perform an exhaustive complexity study and describe the performance of new heuristics. In the third chapter, we study the replica placement problem in a tree network. We try to minimize the energy consumption in a dynamic frame. After a complexity study, we confirm the quality of our heuristics through a complete set of simulations. In the fourth chapter, we come back to streaming applications, but in the form of series-parallel graphs, and try to map them onto a chip multiprocessor. The design of a polynomial algorithm on a simple problem allows us to derive heuristics on the most general problem, whose NP-completeness has been proven. In the fifth chapter, we study energy bounds of different routing policies in chip multiprocessors, compared to the classical XY routing, and develop new routing heuristics. In the last chapter, we compare the performance of different algorithms of the literature that tackle the problem of mapping DAG applications to minimize the energy consumption.

Page generated in 0.0284 seconds