• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 132
  • 99
  • 24
  • 1
  • Tagged with
  • 256
  • 215
  • 159
  • 141
  • 96
  • 91
  • 56
  • 52
  • 52
  • 48
  • 46
  • 30
  • 28
  • 27
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

UML pour l'exploration de l'espace de conception, la simulation rapide et Analyse statique

Knorreck, Daniel 26 October 2011 (has links) (PDF)
L'exploration de l'espace de conception au niveau système est effectuée tôt dans le flot de conception des systèmes embarqués et des systèmes sur puce. L'objectif est d'identifier un partitionnement matériel / logiciel approprié qui réponde à un ensemble de contraintes concernant la fonctionnalité, la performance, la surface de silicium, la consommation d'énergie, etc. Lors des étapes de conception précoces, des modèles de système précis, tels que des modèles RTL, peuvent être encore indisponibles. Par ailleurs, la complexité de ces modèles présente l'inconvénient d'être exigeant et lent dans la vérification. Il est communément admis que le seul remède à ce problème est l'abstraction, ce qui a engendré l'apparition de plates-formes virtuelles basées sur des techniques telles que la modélisation au niveau transactionnel. Étant non fonctionnels, les modèles \textit{approximately timed} vont encore plus loin en faisant l'abstraction de données simplement selon leur présence ou absence et en introduisant des instructions symboliques. La méthodologie DIPLODOCUS et son profil UML correspondant réalisent les abstractions susmentionnées. La méthodologie s'appuie sur l'approche en Y, qui traite des fonctionnalités (appelées application) et leur réalisation (appelée architecture) de manière orthogonale. La sémantique formelle de DIPLODOCUS ouvre conjointement la voie à la simulation et à la vérification formelle, ce qui a été démontré préalablement a ce travail. Cette thèse propose des améliorations à la méthodologie qui permettent la vérification des propriétés fonctionnelles et non fonctionnelles. Au début, nous nous concentrons sur la façon dont les propriétés fonctionnelles sont exprimées. Puisque la vérification des modèles de haut niveau est habituellement réalisée avec la logique temporelle, nous suggérons une façon plus intuitive qui correspond au niveau d'abstraction du modèle qui doit être vérifié. Le langage graphique, mais formel nommé TEPE est la première contribution de ce travail. Pour atteindre un niveau élevé de confiance en vérification dans un délai raisonnable, le modèle doit être exécuté efficacement. La deuxième contribution vise donc une sémantique d'exécution pour les modèles DIPLODOCUS et une stratégie de simulation qui s'appuie sur l'abstraction. L'avantage est qu'une granularité grossière du modèle d'application se traduit directement par une augmentation de la vitesse de simulation. Comme troisième contribution, nous présentons un compromis entre la couverture limitée de la simulation et l'exhaustivité des techniques formelles. Lorsqu'il s'agit de modèles complexes, l'exhaustivité peut être entravée par le problème d'explosion combinatoire. En raison de l'abstraction de données, les modèles d'application DIPLODOCUS comportent des opérateurs non-déterministes. La simulation à couverture élargie vise à exploiter un sous-ensemble, ou bien l'intégralité, des valeurs des variables aléatoires. Par conséquent, une analyse statique des modèles DIPLODOCUS est effectuée et les informations caractérisant la partie significative de l'espace d'état de l'application sont propagées au simulateur. Enfin, nous fournissons des preuves de l'applicabilité des contributions par le biais d'une étude de cas dans le domaine du traitement du signal. Il sera démontré que les propriétés courantes se traduisent aisément en TEPE. Par ailleurs, la simulation rapide et sa couverture élargie fournissent des indications pertinentes qui sont susceptibles d'aider le développeur à configurer une plate-forme radio logicielle.
162

Un environnement pour le calcul intensif pain à pain

Nguyen, The Tung 16 November 2011 (has links) (PDF)
Le concept de pair à pair (P2P) a connu récemment de grands développements dans les domaines du partage de fichiers, du streaming vidéo et des bases de données distribuées. Le développement du concept de parallélisme dans les architectures de microprocesseurs et les avancées en matière de réseaux à haut débit permettent d'envisager de nouvelles applications telles que le calcul intensif distribué. Cependant, la mise en oeuvre de ce nouveau type d'application sur des réseaux P2P pose de nombreux défis comme l'hétérogénéité des machines, le passage à l'échelle et la robustesse. Par ailleurs, les protocoles de transport existants comme TCP et UDP ne sont pas bien adaptés à ce nouveau type d'application. Ce mémoire de thèse a pour objectif de présenter un environnement décentralisé pour la mise en oeuvre de calculs intensifs sur des réseaux pair à pair. Nous nous intéressons à des applications dans les domaines de la simulation numérique et de l'optimisation qui font appel à des modèles de type parallélisme de tâches et qui sont résolues au moyen d'algorithmes itératifs distribués or parallèles. Contrairement aux solutions existantes, notre environnement permet des communications directes et fréquentes entre les pairs. L'environnement est conçu à partir d'un protocole de communication auto-adaptatif qui peut se reconfigurer en adoptant le mode de communication le plus approprié entre les pairs en fonction de choix algorithmiques relevant de la couche application ou d'éléments de contexte comme la topologie au niveau de la couche réseau. Nous présentons et analysons des résultats expérimentaux obtenus sur diverses plateformes comme GRID'5000 et PlanetLab pour le problème de l'obstacle et des problèmes non linéaires de flots dans les réseaux.
163

Mise en oeuvre d'un système de localisation indoor s'appuyant sur une analyse du mouvement d'un terminal embarqué

Ho, Minh Tuan 04 December 2013 (has links) (PDF)
L'objectif de nos travaux de recherche est de concevoir une architecture simple et efficace veiller à deux exigences suivantes: une grande précision (au niveau de la pièce) ; une adaptation aux plusieurs scénarios. La thèse contribue aux études pour les systèmes de localisation en intérieur en combinant des approches basées sur la caractérisation de mouvement, la communication courte portée et de l'intensité du signal. La combinaison de ces approches proposées permettent de minimiser la défaillance de chacune approche. En effet, notre système de localisation propose une combinaison des technologies qui sont actuellement équipé en terminaux mobiles, y compris la technologie de WLAN, NFC et des capteurs (accéléromètre et magnétomètre). Voici nos trois approches proposées : Premièrement, nous proposons l'approche basée sur NFC-étiquetage qui fournit un service simple et efficace pour une localisation en intérieur. En touchant une étiquette disséminées dans l'environnement intérieur, l'utilisateur peut connaître sa position réelle qui est même à celle d'étiquette. Cette approche est très pratique car la localisation se fait automatiquement en approchant le terminal mobile de l'utilisateur à l'étiquette. L'approche basée sur NFC-étiquetage, cependant, nécessite l'intervention régulière de l'utilisateur qui n'est pas prédictive et donc peut poser des problèmes sur la validité des informations. Alors, l'information de localisation n'est fiable que dans un certain intervalle de temps depuis le dernier étiquetage. La valeur de cet intervalle de temps (ex. t secondes) sera ajustée selon les scénarios de déploiement. Deuxièmement, nous améliorons la qualité de l'approche précédente en développant la deuxième approche basée sur des capteurs qui combine l'accéléromètre et le magnétomètre pour estimer la distance de déplacement de l'utilisateur. Avec l'objectif de permettre à l'utilisateur de tenir son terminal mobile commodément dans la main (multi-positions), la deuxième approche fournit un service de localisation caractérisant le degré de mouvement à l'utilisateur pour déterminer si l'utilisateur est au même endroit depuis le dernier étiquetage. Pour une longue trajectoire, cette approche permet de détecter que l'utilisateur a déjà déplacé à un autre endroit. Finalement, afin de surmonter les inconvénients de deux approches précédentes, nous proposons la troisième approche basée sur l'intensité du signal en utilisant la similarité des conditions radio entre proches voisins. Nous proposons une combinaison de la technologie NFC et WLAN pour construire la cartographie d'intensité du signal. La communication à courte portée NFC permet au système d'obtenir correctement les informations de position. Cette combinaison peut récupérer les données de l'intensité du signal radio à et les attribuer à une position connue sur la cartographie, sans exiger de phases hors ligne pour enregistrer l'intensité du signal radio.
164

Génération automatique de tests à partir de modèles SysML pour la validation fonctionnelle de systèmes embarqués

Lasalle, Jonathan 29 June 2012 (has links) (PDF)
Les travaux présentés dans ce mémoire proposent une méthode originale de génération automatique de tests à partir de modèles SysML pour la validation de systèmes embarqués. Un sous-ensemble du langage SysML (appelé SysML4MBT) regroupant les éléments de modélisation pris en compte dans notre approche a été défini et une stratégie de génération de tests dédiée (intitulée ComCover) a été créée. Cette stratégie, basée sur les principes du critère de couverture de modèles bien connu Def-Use, s'intéresse à la couverture des communications (envois / réceptions) au sein du système et entre le système et son environnement.La mise en œuvre opérationnelle d'un prototype, basé sur un générateur de tests à partir de modèle UML, a nécessité la définition de règles de réécriture permettant la transformation du modèle SysML4MBT vers le format d'entrée natif du générateur de tests tout en conservant l'expressivité de SysML4MBT. Finalement, les étapes de concrétisation des tests en scripts exécutables et l'établissement automatique du verdict lors de l'exécution sur banc de test définis durant le projet VETESS permettent l'établissement d'une chaîne outillée opérationnelle de génération et d'exécution automatique de tests à partir de spécifications SysML. Cette chaîne outillée a été étrennée sur plusieurs cas d'étude automobile tels que l'éclairage avant, les essuie-glaces ou la colonne de direction de véhicule. Sur ce dernier exemple, nous avons eu l'opportunité d'exécuter les tests sur un banc de test physique. Ces cas d'étude ont permis de valider chacune des étapes de l'approche proposée.
165

Ordonnancement temps-réel des graphes flots de données

Bouakaz, Adnan 27 November 2013 (has links) (PDF)
Les systèmes temps-réel critiques sont de plus en plus complexes, et les exigences fonctionnelles et non-fonctionnelles ne cessent plus de croître. Le flot de conception de tels systèmes doit assurer, parmi d'autres propriétés, le déterminisme fonctionnel et la prévisibilité temporelle. Le déterminisme fonctionnel est inhérent aux modèles de calcul flot de données (ex. KPN, SDF, etc.) ; c'est pour cela qu'ils sont largement utilisés pour modéliser les systèmes embarqués de traitement de flux. Un effort considérable a été accompli pour résoudre le problème d'ordonnancement statique périodique et à mémoire de communication bornée des graphes flots de données. Cependant, les systèmes embarqués temps-réel optent de plus en plus pour l'utilisation de systèmes d'exploitation temps-réel et de stratégies d'ordonnancement dynamique pour gérer les tâches et les ressources critiques. Cette thèse aborde le problème d'ordonnancement temps-réel dynamique des graphes flots de données ; ce problème consiste à assigner chaque acteur dans un graphe à une tâche temps-réel périodique (i.e. calcul des périodes, des phases, etc.) de façon à : (1) assurer l'ordonnançabilité des tâches sur une architecture et pour une stratégie d'ordonnancement (ex. RM, EDF) données ; (2) exclure statiquement les exceptions d'overflow et d'underflow sur les buffers de communication ; et (3) optimiser les performances du système (ex. maximisation du débit, minimisation des tailles des buffers).
166

Implantations distribuées de modèles à base de composants communicants par interactions multiparties avec priorités : application au langage BIP.

Quilbeuf, Jean 16 September 2013 (has links) (PDF)
Les nouveaux systèmes ont souvent recours à une implémentation distribuée du logiciel, pour des raisons d'efficacité et à cause de l'emplacement physique de certains capteurs et actuateurs. S'assurer de la correction d'un logiciel distribué est difficile car cela impose de considérer tous les enchevêtrements possibles des actions exécutées par des processus distincts. Cette thèse propose une méthode pour générer, à partir d'un modèle d'application haut niveau, une implémentation distribuée correcte et efficace. Le modèle de l'application comporte des composants communiquant au moyen d'interactions multiparties avec priorités. L'exécution d'une interaction multipartie, qui correspond à un pas de la sémantique, change de façon atomique l'état de tous les composants participant à l'interaction. On définit une implantation distribuée comme un ensemble de processus communiquant par envoi de message asynchrone. La principale difficulté est de produire une implémentation correcte et efficace des interactions multiparties avec priorités, en utilisant uniquement l'envoi de message comme primitive. La méthode se fonde sur un flot de conception rigoureux qui raffine progressivement le modèle haut niveau en un modèle bas niveau, à partir duquel le code pour une plateforme particulière est généré. Tous les modèles intermédiaires apparaissant dans le flot sont exprimés avec la même sémantique que le modèle original. À chaque étape du flot, les interactions complexes sont remplacés par des constructions utilisant des interactions plus simples. En particulier, le dernier modèle obtenu avant la génération du code ne contient que des interactions modélisant l'envoi de message. La correction de l'implémentation est obtenue par construction. L'utilisation des interactions multiparties comme primitives dans le modèle de l'application permet de réduire très significativement l'ensemble des états atteignables, par rapport à un modèle équivalent mais utilisant des primitives de communication plus simples. Les propriétés essentielles du système sont vérifiées à ce niveau d'abstraction. Chaque transformation constituante du flot de conception est suffisamment simple pour être complètement formalisée et prouvée, en termes d'équivalence observationelle ou d'équivalence de trace entre le modèles avant et après transformation. L'implémentation ainsi obtenue est correcte par rapport au modèle original, ce qui évite une coûteuse vérification a posteriori. Concernant l'efficacité, la performance de l'implémentation peut être optimisée en choisissant les paramètres adéquats pour les transformations, ou en augmentant la connaissance des composants. Cette dernière solution requiert une analyse du modèle de départ afin de calculer la connaissance qui est réutilisée pour les étapes ultérieures du flot de conception. Les différentes transformations et optimisations constituant le flot de conception ont été implémentées dans le cadre de BIP. Cette implémentation a permis d'évaluer les différentes possibilités ainsi que l'influence des différents paramètres, sur la performance de l'implémentation obtenue avec plusieurs exemples. Le code généré utilise les primitives fournies par les sockets POSIX, MPI ou les pthreads pour envoyer des messages entre les processus.
167

Modeling and simulation in nonlinear stochastic dynamic of coupled systems and impact / Modélisation et simulation en dynamique stochastique non linéaire de systèmes couplés et phénomènes d’impact

De Queiroz Lima, Roberta 13 May 2015 (has links)
Dans cette Thèse, la conception robuste avec un modèle incertain d'un système électromécanique avec vibro-impact est fait. Le système électromécanique est constitué d'un chariot, dont le mouvement est excité par un moteur à courant continu et un marteau embarqué dans ce chariot. Le marteau est relié au chariot par un ressort non linéaire et par un amortisseur linéaire, de façon qu'un mouvement relatif existe entre eux. Une barrière flexible linéaire, placé à l'extérieur du chariot limite les mouvements de marteau. En raison du mouvement relatif entre le marteau et la barrière, impacts peuvent se produire entre ces deux éléments. Le modèle du système développé prend en compte l'influence du courant continu moteur dans le comportement dynamique du système. Certains paramètres du système sont incertains, tels comme les coefficients de rigidité et d'amortissement de la barrière flexible. L'objectif de la Thèse est de réaliser une optimisation de ce système électromécanique par rapport aux paramètres de conception afin de maximiser l'impact puissance sous la contrainte que la puissance électrique consommée par le moteur à courant continu est inférieure à une valeur maximale. Pour choisir les paramètres de conception dans le problème d'optimisation, une analyse de sensibilité a été réalisée afin de définir les paramètres du système les plus sensibles. L'optimisation est formulée dans le cadre de la conception robuste en raison de la présence d'incertitudes dans le modèle. Les lois de probabilités liées aux variables aléatoires du problème sont construites en utilisant le Principe du Maximum l'Entropie et les statistiques de la réponse stochastique du système sont calculées en utilisant la méthode de Monte Carlo. L'ensemble d'équations non linéaires sont présentés, et un solveur temporel adapté est développé. Le problème d'optimisation non linéaire stochastique est résolu pour différents niveaux d'incertitudes, et aussi pour le cas déterministe. Les résultats sont différents, ce qui montre l'importance de la modélisation stochastique / In this Thesis, the robust design with an uncertain model of a vibro-impact electromechanical system is done. The electromechanical system is composed of a cart, whose motion is excited by a DC motor (motor with continuous current), and an embarked hammer into this cart. The hammer is connected to the cart by a nonlinear spring component and by a linear damper, so that a relative motion exists between them. A linear flexible barrier, placed outside of the cart, constrains the hammer movements. Due to the relative movement between the hammer and the barrier, impacts can occur between these two elements. The developed model of the system takes into account the influence of the DC motor in the dynamic behavior of the system. Some system parameters are uncertain, such as the stiffness and the damping coefficients of the flexible barrier. The objective of the Thesis is to perform an optimization of this electromechanical system with respect to design parameters in order to maximize the impact power under the constraint that the electric power consumed by the DC motor is lower than a maximum value. To chose the design parameters in the optimization problem, an sensitivity analysis was performed in order to define the most sensitive system parameters. The optimization is formulated in the framework of robust design due to the presence of uncertainties in the model. The probability distributions of random variables are constructed using the Maximum Entropy Principle and statistics of the stochastic response of the system are computed using the Monte Carlo method. The set of nonlinear equations are presented, and an adapted time domain solver is developed. The stochastic nonlinear constrained design optimization problem is solved for different levels of uncertainties, and also for the deterministic case. The results are different and this show the importance of the stochastic modeling
168

Modèles de calculs flot de données avec paramètres entiers et booléens. Modélisation - Analyses - Mise en oeuvre / Boolean Parametric Data Flow Modeling - Analyses - Implementation

Bempelis, Evangelos 26 February 2015 (has links)
Les applications de gestion de flux sont responsables de la majorité des calculs des systèmes embarqués (vidéo conférence, vision par ordinateur). Leurs exigences de haute performance rendent leur mise en œuvre parallèle nécessaire. Par conséquent, il est de plus en plus courant que les systèmes embarqués modernes incluent des processeurs multi-cœurs qui permettent un parallélisme massif. La mise en œuvre des applications de gestion de flux sur des multi-cœurs est difficile à cause de leur complexité, qui tend à augmenter, et de leurs exigences strictes à la fois qualitatives (robustesse, fiabilité) et quantitatives (débit, consommation d'énergie). Ceci est observé dans l'évolution de codecs vidéo qui ne cessent d'augmenter en complexité, tandis que leurs exigences de performance demeurent les mêmes. Les modèles de calcul (MdC) flot de données ont été développés pour faciliter la conception de ces applications qui sont typiquement composées de filtres qui échangent des flux de données via des liens de communication. Ces modèles fournissent une représentation intuitive des applications de gestion de flux, tout en exposant le parallélisme de tâches de l'application. En outre, ils fournissent des analyses statiques pour la vivacité et l'exécution en mémoire bornée. Cependant, les applications de gestion de flux modernes comportent des filtres qui échangent des quantités de données variables, et des liens de communication qui peuvent être activés / désactivés. Dans cette thèse, nous présentons un nouveau MdC flot de données, le Boolean Parametric Data Flow (BPDF), qui permet le paramétrage de la quantité de données échangées entre les filtres en utilisant des paramètres entiers et l'activation et la désactivation de liens de communication en utilisant des paramètres booléens. De cette manière, BPDF est capable de exprimer des applications plus complexes, comme les décodeurs vidéo modernes. Malgré l'augmentation de l'expressivité, les applications BPDF restent statiquement analysables pour la vivacité et l'exécution en mémoire bornée. Cependant, l'expressivité accrue complique grandement la mise en œuvre. Les paramètres entiers entraînent des dépendances de données de type paramétrique et les paramètres booléens peuvent désactiver des liens de communication et ainsi éliminer des dépendances de données. Pour cette raison, nous proposons un cadre d'ordonnancement qui produit des ordonnancements de type ``aussi tôt que possible'' (ASAP) pour un placement statique donné. Il utilise des contraintes d'ordonnancement, soit issues de l'application (dépendance de données) ou de l'utilisateur (optimisations d'ordonnancement). Les contraintes sont analysées pour la vivacité et, si possible, simplifiées. De cette façon, notre cadre permet une grande variété de politiques d'ordonnancement, tout en garantissant la vivacité de l'application. Enfin, le calcul du débit d'une application est important tant avant que pendant l'exécution. Il permet de vérifier que l'application satisfait ses exigences de performance et il permet de prendre des décisions d'ordonnancement à l'exécution qui peuvent améliorer la performance ou la consommation d'énergie. Nous traitons ce problème en trouvant des expressions paramétriques pour le débit maximum d'un sous-ensemble de BPDF. Enfin, nous proposons un algorithme qui calcule une taille des buffers suffisante pour que l'application BPDF ait un débit maximum. / Streaming applications are responsible for the majority of the computation load in many embedded systems (video conferencing, computer vision etc). Their high performance requirements make parallel implementations a necessity. Hence, more and more modern embedded systems include many-core processors that allow massive parallelism. Parallel implementation of streaming applications on many-core platforms is challenging because of their complexity, which tends to increase, and their strict requirements both qualitative (e.g., robustness, reliability) and quantitative (e.g., throughput, power consumption). This is observed in the evolution of video codecs that keep increasing in complexity, while their performance requirements remain the same or even increase. Data flow models of computation (MoCs) have been developed to facilitate the design process of such applications, which are typically composed of filters exchanging streams of data via communication links. Data flow MoCs provide an intuitive representation of streaming applications, while exposing the available parallelism of the application. Moreover, they provide static analyses for liveness and boundedness. However, modern streaming applications feature filters that exchange variable amounts of data, and communication links that are not always active. In this thesis, we present a new data flow MoC, the Boolean Parametric Data Flow (BPDF), that allows parametrization of the amount of data exchanged between the filters using integer parameters and the enabling and disabling of communication links using boolean parameters. In this way, BPDF is able to capture more complex streaming applications, like video decoders. Despite the increase in expressiveness, BPDF applications remain statically analyzable for liveness and boundedness. However, increased expressiveness greatly complicates implementation. Integer parameters result in parametric data dependencies and the boolean parameters disable communication links, effectively removing data dependencies. We propose a scheduling framework that facilitates the scheduling of BPDF applications. Our scheduling framework produces as soon as possible schedules for a given static mapping. It takes us input scheduling constraints that derive either from the application (data dependencies) or from the user (schedule optimizations). The constraints are analyzed for liveness and, if possible, simplified. In this way, our framework provides flexibility, while guaranteeing the liveness of the application. Finally, calculation of the throughput of an application is important both at compile-time and at run-time. It allows to verify at compile-time that the application meets its performance requirements and it allows to take scheduling decisions at run-time that can improve performance or power consumption. We approach this problem by finding parametric throughput expressions for the maximum throughput of a subset of BPDF graphs. Finally, we provide an algorithm that calculates sufficient buffer sizes for the BPDF graph to operate at maximum throughput.
169

Rigorous System-level Modeling and Performance Evaluation for Embedded System Design / Modélisation et Évaluation de Performance pour la Conception des Systèmes Embarqués : Approche Rigoureuse au Niveau Système

Nouri, Ayoub 08 April 2015 (has links)
Les systèmes embarqués ont évolué d'une manière spectaculaire et sont devenus partie intégrante de notre quotidien. En réponse aux exigences grandissantes en termes de nombre de fonctionnalités et donc de flexibilité, les parties logicielles de ces systèmes se sont vues attribuer une place importante malgré leur manque d'efficacité, en comparaison aux solutions matérielles. Par ailleurs, vu la prolifération des systèmes nomades et à ressources limités, tenir compte de la performance est devenu indispensable pour bien les concevoir. Dans cette thèse, nous proposons une démarche rigoureuse et intégrée pour la modélisation et l'évaluation de performance tôt dans le processus de conception. Cette méthode permet de construire des modèles, au niveau système, conformes aux spécifications fonctionnelles, et intégrant les contraintes non-fonctionnelles de l'environnement d'exécution. D'autre part, elle permet d'analyser quantitativement la performance de façon rapide et précise. Cette méthode est guidée par les modèles et se base sur le formalisme $mathcal{S}$BIP que nous proposons pour la modélisation stochastique selon une approche formelle et par composants. Pour construire des modèles conformes au niveau système, nous partons de modèles purement fonctionnels utilisés pour générer automatiquement une implémentation distribuée, étant donnée une architecture matérielle cible et un schéma de répartition. Dans le but d'obtenir une description fidèle de la performance, nous avons conçu une technique d'inférence statistique qui produit une caractérisation probabiliste. Cette dernière est utilisée pour calibrer le modèle fonctionnel de départ. Afin d'évaluer la performance de ce modèle, nous nous basons sur du model checking statistique que nous améliorons à l'aide d'une technique d'abstraction. Nous avons développé un flot de conception qui automatise la majorité des phases décrites ci-dessus. Ce flot a été appliqué à différentes études de cas, notamment à une application de reconnaissance d'image déployée sur la plateforme multi-cœurs STHORM. / In the present work, we tackle the problem of modeling and evaluating performance in the context of embedded systems design. These have become essential for modern societies and experienced important evolution. Due to the growing demand on functionality and programmability, software solutions have gained in importance, although known to be less efficient than dedicated hardware. Consequently, considering performance has become a must, especially with the generalization of resource-constrained devices. We present a rigorous and integrated approach for system-level performance modeling and analysis. The proposed method enables faithful high-level modeling, encompassing both functional and performance aspects, and allows for rapid and accurate quantitative performance evaluation. The approach is model-based and relies on the $mathcal{S}$BIP formalism for stochastic component-based modeling and formal verification. We use statistical model checking for analyzing performance requirements and introduce a stochastic abstraction technique to enhance its scalability. Faithful high-level models are built by calibrating functional models with low-level performance information using automatic code generation and statistical inference. We provide a tool-flow that automates most of the steps of the proposed approach and illustrate its use on a real-life case study for image processing. We consider the design and mapping of a parallel version of the HMAX models algorithm for object recognition on the STHORM many-cores platform. We explored timing aspects and the obtained results show not only the usability of the approach but also its pertinence for taking well-founded decisions in the context of system-level design.
170

Formulations de problèmes d’optimisation multiniveaux pour la conception de réseaux de bord électriques en aéronautique / Multilevel optimization problem setting for the design of electric aircraft networks

Hadbi, Djamel 14 December 2015 (has links)
Dans le contexte de l’avion plus électrique, les réseaux électriques aéronautiques sont en pleine évolution. Cette évolution est poussée par le besoin d’une intégration à forte densité énergétique ce qui pose des défis aux concepteurs en termes d’architectures, de systèmes et de méthodes de dimensionnement.Un réseau de bord est composé d’un ensemble de systèmes électriques multidisciplinaire qui proviennent de différents fournisseurs dont le design est actuellement effectué en répondant à des standards de qualité spécifiés par l’agrégateur. L’objectif de la thèse est de proposer de nouvelles approches intégrées qui permettent de gérer la complexité des réseaux électriques tout en convergeant vers un résultat optimal, offrant des gains de masses en référence à un design par des « approches mécanistes » reposant sur un agrégat de boucles d’optimisation locales. Une approche multiniveau a été développée en s’inspirant des travaux sur la MDO « Multidisciplinary Design Optimization ». L’élaboration de cette approche a été le résultat d’une expertise accumulée en appliquant différentes méthodes disponibles dans la bibliographie. L’optimisation porte plus spécifiquement sur les filtres d’entrée des charges du réseau ainsi que sur le filtre de sortie du canal de génération du réseau électrique embarqué. L’optimisation multiniveau vise, dans un contexte collaboratif, à itérer entre le niveau agrégateur (niveau réseau) et le niveau équipementier (charges et source du réseau). L’utilisation d’une formulation agrégée au niveau réseau et le respect des causalités au niveau des sous-problèmes sont les principaux atouts de cette approche qui conduit à des solutions proches de l’optimum global de masse de filtres. / Within more electric aircraft context, electric systems and networks have to evolve. High energy density integration pushes designers to reconsider their systems, architectures and tools.An aircraft network contains a large number of multidisciplinary systems which come from different manufacturers. Each manufacturer designs its system separately following quality standards specified by the aggregator. The goal of this thesis is to provide system approaches which could deal with the high-level of complexity of the network while reaching the optimal design of all the system and so reduce the total weight in comparison with mechanistic approaches based on independent optimization loops for the different subsystems.Consulting MDO “Multidisciplinary Design Optimization” researches, we have developed a multilevel approach based on our previous studies and conclusions on classical approaches used in the design of electrical systems. The optimization concerns the input filters of the loads connected to the HVDC bus and the output filter of the generating channel which supply the electric power. The multilevel collaborative optimization allows an automated exchange of data between the aggregator (system level) and manufacturers (sub-system level) and thanks to that, the optimal design of all the system is joined. The strong points of this approach are the aggregated formulation and causality connections between sub-systems.

Page generated in 0.0378 seconds