• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 201
  • 43
  • 2
  • Tagged with
  • 722
  • 722
  • 334
  • 329
  • 196
  • 174
  • 144
  • 126
  • 114
  • 113
  • 104
  • 88
  • 83
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Caractérisation de la performance temporelle et de la consommation électrique de systèmes embarqués basés sur des plates-formes multiprocesseurs/coeurs et mettant en oeuvre du logiciel temps réel : FORECAST : perFORmance and Energy Consumption AnalysiS Tool / Performance and power consumption characterisation of embedded systems for multiprocessor/multicore platforms supporting real time software. : FORECAST : perFORmance and Energy Consumption AnalysiS Tool

Kriegel, Joffrey 29 January 2013 (has links)
La multiplication des plate-formes embarquées disponibles sur le marché rend de plus en plus complexe le choix d’une plate-forme pour un produit. L’arrivée des architectures multi-processeurs augmente encore plus ce phénomène. Dans le contexte industriel actuel, il est nécessaire de disposer d’une méthodologie et des outils associés permettant d’évaluer rapidement ces plate-formes et celles qui apparaitront dans le futur sur le marché afin de faire des premiers choix tôt dans le cycle de conception des produits. Précédemment, il était nécessaire d’attendre l’arrivée sur le marché des plate-formes de test afin d’exécuter sur ces plate-formes des benchmarks et des applications afin d’évaluer leur performance et leur consommation. Nous proposons ici une méthodologie et les outils associés permettant de modéliser un système (logiciel et matériel) puis d’estimer ses performances et sa consommation d’énergie. Notre méthodologie s’appuie sur des modèles simples à mettre en œuvre utilisant uniquement des informations présentes dans les documents techniques des constructeurs. Autre avantage de notre approche, la simulation réalisée s’appuie sur du code exécutable généré automatiquement afin de s’exécuter en natif sur un ordinateur. Cela permet une exécution rapide des scénarios de test et offre la possibilité de faire de l’exploration d’architectures. Nous avons procédé à diverses validations en utilisant des applications variées (décodeur H.264, application radio, benchmarks classiques, ...) et en comparant les performances et la consommation estimée avec l’équivalent sur des plate-formes réelles (OMAP3/4, i.MX6, QorIQ, ...). Cela a permis d’évaluer l’erreur d’estimation de FORECAST (l’outil développé lors de cette thèse) et ainsi de s’assurer que le taux d’erreur reste dans des bornes admissibles c’est-à-dire inferieures à 20%. Nous avons d’un autre côté comparé notre approche avec celles développées dans deux autres projets OpenPEOPLE (ANR) et COMCAS (Catrene) afin de s’assurer que le rapport effort/précision de notre approche est intéressant. / The number of available commercial platforms is constantly increasing. The choice of an architecture that fit as much as possible the requirements is therefore more and more complex. This is even more real with the availability of recent multiprocessors architectures. As a consequence, methodologies with their associated tools are required in order to quickly evaluate future platforms, so that choices can be made early in the design flow. So far, evaluating either the performance or the power consumption of a dedicated platform was performed through executing benchmarks and applications on this platform. In this thesis, a new methodology with its associated tools, called FORECAST, is proposed to model both the hardware and software of a system, and then to estimate its performance and its power consumption. Our methodology is based on efficient models, easy to characterize using only information provided by constructor datasheets. Moreover, our approach is able to automatically generate an executable code of the system that can be simulated on the host machine. This simulation allows a rapid execution of multiple test cases. Our approach is therefore well adapted for performing architecture exploration. A lot of experimentations have been performed using our tool FORECAST for different applications (H.264 video decoder, radio application, benchmarks. . .) and different hardware platforms. Results obtained both in performance and in power consumption have then been compared with existing platforms (OMAP3, OMAP4, i.MX6, QorIQ. . .), but also with two collaborative projects, OpenPeple (ANR) and COMCAS (Catrene), dealing also with performance and power estimations. The comparison demonstrates the accuracy of our approach as the estimation is always below a 20% error margin. These experimentations have also shown that our methodology provides a very efficient ratio between the modeling effort and the accuracy of the estimations.
212

Parallélisme des nids de boucles pour l’optimisation du temps d’exécution et de la taille du code / Nested loop parallelism to optimize execution time and code size

Elloumi, Yaroub 16 December 2013 (has links)
Les algorithmes des systèmes temps réels incluent de plus en plus de nids de boucles, qui sont caractérisés par un temps d’exécution important. De ce fait, plusieurs démarches de parallélisme des boucles imbriquées ont été proposées dans l’objectif de réduire leurs temps d’exécution. Ces démarches peuvent être classifiées selon deux niveaux de granularité : le parallélisme au niveau des itérations et le parallélisme au niveau des instructions. Dans le cas du deuxième niveau de granularité, les techniques visent à atteindre un parallélisme total des instructions appartenant à une même itération. Cependant, le parallélisme est contraint par les dépendances des données inter-itérations ce qui implique le décalage des instructions à travers les boucles imbriquées, provocant ainsi une augmentation du code proportionnelle au niveau du parallélisme. Par conséquent, le parallélisme total au niveau des instructions des nids de boucles engendre des implémentations avec des temps d’exécution non-optimaux et des tailles du code importantes. Les travaux de cette thèse s’intéressent à l’amélioration des stratégies de parallélisme des nids de boucles. Une première contribution consiste à proposer une nouvelle technique de parallélisme au niveau des instructions baptisée « retiming multidimensionnel décalé ». Elle vise à ordonnancer les nids de boucles avec une période de cycle minimale, sans atteindre un parallélisme total. Une deuxième contribution consiste à mettre en pratique notre technique dans le contexte de l’implémentation temps réel embarquée des nids de boucles. L’objectif est de respecter la contrainte du temps d’exécution tout en utilisant un code de taille minimale. Dans ce contexte, nous avons proposé une première démarche d’optimisation qui consiste à utiliser notre technique pour déterminer le niveau parallélisme minimal. Par la suite, nous avons décrit une deuxième démarche permettant de combiner les parallélismes au niveau des instructions et au niveau des itérations, en utilisant notre technique et le « loop striping » / The real time implementation algorithms always include nested loops which require important execution times. Thus, several nested loop parallelism techniques have been proposed with the aim of decreasing their execution times. These techniques can be classified in terms of granularity, which are the iteration level parallelism and the instruction level parallelism. In the case of the instruction level parallelism, the techniques aim to achieve a full parallelism. However, the loop carried dependencies implies shifting instructions in both side of nested loops. Consequently, these techniques provide implementations with non-optimal execution times and important code sizes, which represent limiting factors when implemented on embedded real-time systems. In this work, we are interested on enhancing the parallelism strategies of nested loops. The first contribution consists of purposing a novel instruction level parallelism technique, called “delayed multidimensional retiming”. It aims to scheduling the nested loops with the minimal cycle period, without achieving a full parallelism. The second contribution consists of employing the “delayed multidimensional retiming” when providing nested loop implementations on real time embedded systems. The aim is to respect an execution time constraint while using minimal code size. In this context, we proposed a first approach that selects the minimal instruction parallelism level allowing the execution time constraint respect. The second approach employs both instruction level parallelism and iteration level parallelism, by using the “delayed multidimensional retiming” and the “loop striping”
213

Real time image processing : algorithm parallelization on multicore multithread architecture / Imagerie temps réel : parallélisation d’algorithmes sur plate-forme multi-processeurs

Mahmoudi, Ramzi 13 December 2011 (has links)
Les caractéristiques topologiques d'un objet sont fondamentales dans le traitement d'image. Dansplusieurs applications, notamment l'imagerie médicale, il est important de préserver ou de contrôlerla topologie de l'image. Cependant la conception de telles transformations qui préservent à la foi la topologie et les caractéristiques géométriques de l'image est une tache complexe, en particulier dans le cas du traitement parallèle.Le principal objectif du traitement parallèle est d'accélérer le calcul en partagent la charge de travail à réaliser entre plusieurs processeurs. Si on approche cet objectif sous l'angle de la conception algorithmique, les stratégies du calcul parallèle exploite l'ordre partiel des algorithmes, désigné également par le parallélisme naturel qui présent dans l'algorithme et qui fournit deux principales sources de parallélisme : le parallélisme de données et le parallélisme fonctionnelle.De point de vue conception architectural, il est essentiel de lier l'évolution spectaculaire desarchitectures parallèles et le traitement parallèle. En effet, si les stratégies de parallèlisation sont devenues nécessaire, c'est grâce à des améliorations considérables dans les systèmes de multitraitement ainsi que la montée des architectures multi-core. Toutes ces raisons font du calculeparallèle une approche très efficace. Dans le cas des machines à mémoire partagé, il existe un autreavantage à savoir le partage immédiat des données qui offre plus de souplesse, notamment avec l'évolution du système d'interconnexion entre processeurs, dans la conception de ces stratégies etl'exploitation du parallélisme de données et le parallélisme fonctionnel.Dans cette perspective, nous proposons une nouvelle stratégie de parallèlisation, baptisé SD&M(Split, Distribute and Merge) stratégie qui couvrent une large classe d'opérateurs topologiques.SD&M a été développée afin de fournir un traitement parallèle de tout opérateur basée sur latransformation topologique. Basé sur cette stratégie, nous avons proposé une série d'algorithmestopologiques parallèle (nouvelle version ou version adapté). Nos principales contributions sont :(1)Une nouvelle approche pour calculer la ligne de partage des eaux basée sur ‘MSF transform'.L'algorithme proposé est parallèle, préserve la topologie, n'a pas besoin d'extraction préalable deminima et adaptée pour les machines parallèle à mémoire partagée. Il utilise la même approchede calcule de flux proposé par Jean Cousty et il ne nécessite aucune étape de tri, ni l'utilisationd'une file d'attente hiérarchique. Cette contribution a été précédé par une étude intensive desalgorithmes de calcule de la ligne de partage des eaux dans le cas discret.(2)Une étude similaire sur les algorithmes d'amincissement a été menée. Elle concerne seizealgorithmes d'amincissement qui préservent la topologie. En sus des critères de performance,nous somme basé sur deux critères qualitative pour les comparer et les classés. Après cetteclassification, nous avons essayé d'obtenir de meilleurs résultats grâce avec une version adaptéede l'algorithme d'amincissement proposé par Michel Couprie.(3)Une méthode de calcul amélioré pour le lissage topologique grâce à la combinaison du calculparallèle de la distance euclidienne (en utilisant l'algorithme Meijster) et l'amincissement/épaississement parallèle (en utilisant la version adaptée de l'algorithme de Couprie déjàmentionné). / Topological features of an object are fundamental in image processing. In many applications,including medical imaging, it is important to maintain or control the topology of the image. Howeverthe design of such transformations that preserve topology and geometric characteristics of the inputimage is a complex task, especially in the case of parallel processing.Parallel processing is applied to accelerate computation by sharing the workload among multipleprocessors. In terms of algorithm design, parallel computing strategies profits from the naturalparallelism (called also partial order of algorithms) present in the algorithm which provides two main resources of parallelism: data and functional parallelism. Concerning architectural design, it is essential to link the spectacular evolution of parallel architectures and the parallel processing. In effect, if parallelization strategies become necessary, it is thanks to the considerable improvements in multiprocessing systems and the rise of multi-core processors. All these reasons make multiprocessing very practical. In the case of SMP machines, immediate sharing of data provides more flexibility in designing such strategies and exploiting data and functional parallelism, notably with the evolution of interconnection system between processors.In this perspective, we propose a new parallelization strategy, called SD&M (Split Distribute andMerge) strategy that cover a large class of topological operators. SD&M has been developed in orderto provide a parallel processing for many topological transformations.Based on this strategy, we proposed a series of parallel topological algorithm (new or adaptedversion). In the following we present our main contributions:(1)A new approach to compute watershed transform based on MSF transform, that is parallel,preserves the topology, does not need prior minima extraction and suited for SMP machines.Proposed algorithm makes use of Jean Cousty streaming approach and it does not require any sortingstep, or the use of any hierarchical queue. This contribution came after an intensive study of allexisting watershed transform in the discrete case.(2)A similar study on thinning transform was conducted. It concerns sixteen parallel thinningalgorithms that preserve topology. In addition to performance criteria, we introduce two qualitativecriteria, to compare and classify them. New classification criteria are based on the relationshipbetween the medial axis and the obtained homotopic skeleton. After this classification, we tried toget better results through the proposal of a new adapted version of Couprie's filtered thinningalgorithm by applying our strategy.(3)An enhanced computation method for topological smoothing through combining parallelcomputation of Euclidean Distance Transform using Meijster algorithm and parallel Thinning–Thickening processes using the adapted version of Couprie's algorithm already mentioned.
214

Formal Verification and Validation of Convex Optimization Algorithms For model Predictive Control / Vérification formelle et validation des algorithmes d'optimisation convexe appliqués à la commande prédictive

Cohen, Raphaël P. 03 December 2018 (has links)
L’efficacité des méthodes d’optimisation modernes, associée à l’augmentation des ressources informatiques, a conduit à la possibilité d’utiliser ces algorithmes d’optimisation en temps réel agissant dans des rôles critiques. Cependant, cela ne peut se produire sans porter une certaine attention à la validité de ces algorithmes. Ce doctorat traite de la vérification formelle des algorithmes d'optimisation convexe lors qu'ils sont utilisés pour la guidance de systèmes dynamiques. En outre, nous démontrons comment les preuves théoriques des algorithmes d'optimisation en temps réel peuvent être utilisées pour décrire les propriétés fonctionnelles au niveau du code, les rendant ainsi accessibles à la communauté des méthodes formelles. / The efficiency of modern optimization methods, coupled with increasing computational resources, has led to the possibility of real-time optimization algorithms acting in safety critical roles. However, this cannot happen without addressing proper attention to the soundness of these algorithms. This PhD thesis discusses the formal verification of convex optimization algorithms with a particular emphasis on receding-horizon controllers. Additionally, we demonstrate how theoretical proofs of real-time optimization algorithms can be used to describe functional properties at the code level, thereby making it accessible for the formal methods community.
215

Production, traçage en temps réel de domaines de la fibronectine humaine recombinante et immobilisation des recombinants sur des surfaces bioactives : modèles ou à visées thérapeutiques / Production, real time monitoring of recombinant human fibronectin domain's and their immobilization on bioactive surfaces : models or therapeutic purposes

Dridi, Cyrine 09 March 2015 (has links)
Dans ce travail de thèse, nous avons développé un nouveau procédé de production et de purification en temps réel des domaines 9 et 10 de la fibronectine humaine chez E.coli. Cette stratégie combine trois partenaires de fusion en tandem : un double tag d’affinité (10xHis et SBP) et un tag de coloration (le domaine de fixation de l’hème du cytochrome b5) en présence d’un site Tev. Ce système a montré sa performance dans le traçage visuel des étapes d’expression et de purification et dans la quantification de la CMAT-FNIII9-10. La présence du double tag d’affinité permet une étape de purification simple et offre un degré de pureté atteignant les 98%. Par ailleurs, le cytochrome b5 a montré son intérêt dans le suivi visuel et quantitatif de l’adsorption de la CMAT-FNIII9-10 à la surface d’un support plastique. Ensuite, l’activité du fragment recombinant a été validée avec succès. Dans cette étude, nous avons construit une matrice adhésive en combinant les propriétés du polymère PCL avec celles de la CMAT-FNIII9-10. L’immobilisation de celle-ci s’est opérée d’une manière orientée en adsorbant la protéine de fusion à la surface des PCL par l’intermédiaire de la streptavidine. Cette approche a conduit à l’élaboration d’un matériau biofonctionnalisé en optimisant l’exposition des sites d’attachement cellulaire à la surface des PCL par une immobilisation orientée. La réponse cellulaire des CMS humaines a été validée efficacement sur cette matrice, en absence de sérum et en présence de BSA. Les résultats de cette expérience montrent que cette stratégie a contribué à améliorer l’exposition des sites « RGD » et « PHSRN » favorisant l’interaction avec les récepteurs cellulaires. / In this thesis, we have developed a novel method for producing and purifying the 9th and 10thdomains of type III human fibronectin in E.coli. This strategy combines three fusion partnersin tandem: a dual affinity tag (10xHis and SBP) and a coloring tag (the binding domain of cytochrome b5 heme) in the presence of a Tev cleaving site.This system has demonstrated its performance in the visual tracking of the expression,purification and quantification steps of CMAT-FNIII9-10. The presence of the dual affinity tag allows a simple purification step and offers a degree of purity up to 98%. Moreover, the cytochrome b5 showed its interest in the visual and quantitative monitoring of the CMATFNIII9-10 adsorption onto the surface of a plastic support. Then the biological activity of there combinant fragment was successfully validated. In this study, we constructed an adhesive matrix by combining the properties of PCL with those of CMAT-FNIII9-10. Immobilization of the recombinant fragments is carried out by an oriented adsorption of the fusion protein onto the PCL film through a streptavidin layer. This approach has led to the development of a bio-functionalized material by optimizing the exposure of cell attachment sites on the surface of the PCL by an oriented immobilization. The cellular response of human MSCs was effectively validated on this matrix, in the absence of serum and in the presence of BSA. The results of this experiment show that this strategy has helped to improve the exposure sites "RGD" and "PHSRN" promoting interaction with cellular receptors.
216

Collaboration haptique étroitement couplée pour la manipulation moléculaire interactive / Closely coupled haptic collaboration for interactive molecular manipulation

Simard, Jean 12 March 2012 (has links)
Le docking moléculaire est une tâche complexe, difficile à appréhender pour une personne seule. C’est pourquoi, nous nous proposons d’étudier la distribution cognitive des charges de travail à travers la collaboration. Une plate-forme distribuée de déformation moléculaire interactive a été mise en place afin d’étudier les avantages mais aussi les limites et les contraintes du travail collaboratif étroitement couplé. Cette première étude, basée sur trois expérimentations, a permis de valider l’intérêt d’une approche collaborative pour des tâches complexes à fort couplage. Cependant, elle a mis en évidence des conflits de coordination ainsi que des problématiques liées à la dynamique d’un groupe. Suite à cette première étude, nous avons proposés une nouvelle configuration de travail associée à des métaphores de communication haptiques afin d’améliorer la communication et les interactions entre les différents collaborateurs. Une dernière expérimentation avec des biologistes a permis de montrer l’utilité de la communication haptique pour le travail collaboratif sur des tâches complexes à fort couplage. / Molecular docking is a very complex task that can not be deal by only one user. Based on this observation, we propose to study the cognitive workload distribution on group of users in collaboration. For this purpose, we implement a distributed platform to interactively manipulate and deform structures of the molecules. With this platform, we want to study the assets of the closely coupled collaboration but also highlight the constraints and the drawbacks. Based on three experimentations, the study validate the concept of workload distribution in the closely coupled collaboration. However, it highlights limits with coordination conflicts through communication problem. Moreover, some difficulties have been encountered with the dynamic in a group of collaborators.Based on these results, we proposed a new working configuration coupled with new haptic communication metaphors to improve the communication and the coordination between the members of the group. These propositions have been evaluated in a fourth experimentation introducing biologists. The results show the importance of the haptic communication to improve the coordination in closely coupled collaboration.
217

Génération, visualisation et évaluation d’images HDR : application à la simulation de conduite nocturne / Rendering, visualization and evaluation of HDR images : application to driving simulation at night

Petit, Josselin 03 December 2010 (has links)
Cette thèse se situe à l’interface de deux des sujets de recherche du LEPSi8S, la perception et la réalité virtuelle, appliqués aux transports routiers. L’objectif de la thèse est d’améliorer l’état de l’art concernant le rendu des images de synthèse pour les simulateurs de conduite. L’axe privilégié est le réalisme perceptif des images. L’approche retenue propose un mode de rendu High Dynamic Range, qui permet de générer une image en luminance. La technique proposée permet de réutiliser des environnements virtuels classiques, avec un minimum d’informations supplémentaires concernant les sources lumineuses. Les textures et matériaux existants sont utilisés pour un rendu aussi proche physiquement de la réalité que possible. Ensuite, l’image est traitée avec un opérateur de reproduction de tons, qui compresse la dynamique pour tenir compte des limites liées au dispositif d’affichage, tout en respectant autant que possible un réalisme perceptif du rendu. L’opérateur a été choisi de façon à ce qu’il soit adapté à la simulation de conduite, notamment pour les cas extrêmes (nuit, éblouissement, soleil rasant). Une simulation de l’éblouissement a également été implémentée. L’ensemble du rendu est temps réel, et a été intégré dans la boucle visuelle les simulateurs de conduite du LEPSiS. Enfin, des comparaisons réel-virtuel ont permis de montrer la qualité du rendu HDR obtenu. Des expérimentations avec sujets, sur des photographies (avec une référence réelle) et sur des vidéos, ont de plus montré les meilleures performances d’un opérateur doté d’un modèle visuel humain pour la simulation de conduite, notamment par sa capacité à s’adapter temporellement aux variations de luminance. / The LEPSiS is leading applied research on the transportation field. This PhD addresses perception and virtual reality, two research topics at the LEPSiS. The objective of my PhD was to improve the state of the art of the computer graphic image rendering for driving simulator applications. The main issue was the perceptual realism of the images, notably in high dynamic range conditions (night, glare). The proposed approach puts forward a High Dynamic Range mode, allowing us to render images in luminance.We use classic virtual environments, with small additional information about the light sources. The textures and materials are used for a rendering as close as possible to physical reality. Then, the image is processed by a tone mapping operator, which compresses the luminance dynamic, taking into account the limited range of the display device and the perceptual realism of the rendering. The chosen tone mapping is adapted to driving simulations, and especially to extreme situations (night, skimming sun). A glare simulation was also added. The entire rendering is real time, and is now included in the driving simulators of the LEPSiS. Lastly, real-virtual comparisons assessed the quality of the obtained HDR rendering. Moreover, two psycho-visual experiments with subjects, on photographs (with a real reference) and on video (without reference), showed the relevance of a tone mapping with a human visual model, including temporal adaptation to changing luminance, for driving simulations.
218

Simulation du mouvement des organes de l’abdomen : application aux déformations du foie et de ses vascularisations en vue de d’une reconstitution en temps réel lors d’une chirurgie mini-invasive / Simulation of the déformations of abdominal organs : application to the liver and its vascularisation déformations in regard of real time reconstitution during mini-invasive surgery

Kugler, Michaël 21 December 2018 (has links)
Les modèles numériques présents dans les salles de chirurgie requièrent simultanément une précision millimétrique, une vitesse de résolution importante, tout en prenant en compte la variabilité inter-patient. Dans l’étude proposée, nous développons un modèle numérique du foie, intégrant des lois de comportement hyper-élastiques ainsi que l’impact mécanique de la vascularisation. Une fois constitué, le modèle est traité par des outils mathématiques de réduction de modèles et d’apprentissage afin de fournir une réponse en temps réel. Pour cela, des données mécaniques sont extraites d’indentations numériques puis homogénéisées, pour construire un modèle numérique intégrant l’impact de la vascularisation. Une fois validé sur un échantillon réel les déformations simulées sont utilisées par une méthode d’apprentissage pour construire une réponse fonctionnelle. Une fois intégrée dans un outil chirurgical, ce dernier permet de fournir une réponse en temps réel des déformations du foie. / Numerical models used for surgical application require simultaneously a precision close to the millimeter, high speed resolution and to account for the patient variabilities. In the present study, we develop a numerical model of the liver, which relies on hyper-elastic mechanical behavior completed with the vascularization impact on the macroscopic level. Once completed and implemented, the model is treated with model reduction and learning tools in order to provide a real-time response. Mechanical properties are extracted from numerical indentations and homogeneised to build a model accounting for the impact of the vascularization. Once validated on a real sample, simulated deformations are used as input to a learning solution to build a functional solution. Finally, the function is integrated in a surgical tool, to provide a quick and precise representation of the liver deformations.
219

Exploration et rendu de textures synthétisées / Exploring and rendering synthesized textures

Lasram, Anass 10 December 2012 (has links)
La synthèse de textures est une technique qui génère une texture automatiquement grâce à un algorithme. Cette technique permet de réduire le temps de création des textures et le coût mémoire étant donné que seuls les algorithmes et leurs paramètres ont besoin d'être stockés. Cependant, des difficultés sont souvent rencontrées lors de l'utilisation des textures synthétisées. D'abord, les paramètres de ces textures sont difficiles à manipuler. Ensuite, l'algorithme de synthèse génère souvent les textures sous forme de tableaux de pixels nécessitant beaucoup de mémoire. Pour aborder ces difficultés, nous proposons les approches suivantes : pour améliorer la visualisation de l'espace des textures synthétisées, nous proposons de construire un résumé de cet espace: une seule image statique qui résume, dans un espace limité de pixels, les apparences produites par un synthétiseur donné. De plus, pour améliorer la sélection de paramètres, nous augmentons les curseurs qui contrôlent les paramètres avec des bandes visuelles révélant les changements qui se produisent quand l'utilisateur manipule les curseurs. Pour permettre à l'utilisateur d'interagir de manière interactive avec les résumés visuels, nous nous reposons sur un algorithme de synthèse par patch permettant de générer les textures de façon rapide grâce à une implémentation parallèle sur le processeur graphique. Au lieu de générer le résultat de ce synthétiseur sous forme d'un tableau de pixels, nous représentons le résultat dans une structure compacte et nous utilisons une méthode rapide permettant de lire des pixels directement à partir de cette structure / Texture synthesis is a technique that algorithmically generates textures at rendering time. The automatic synthesis reduces authoring time and memory requirements since only the algorithm and its parameters need to be stored or transferred. However, two difficulties often arise when using texture synthesis: First, the visualization and parameters selection of synthesized textures are difficult. Second, most synthesizers generate textures in a bitmap format leading to high memory usage. To address these difficulties we propose the following approaches: First, to improve the visualization of synthesized textures we propose the idea of a procedural texture preview: A single static image summarizing in a limited pixel space the appearances produced by a given synthesizer. The main challenge is to ensure that most appearances are visible, are allotted a similar pixel area, and are ordered in a smooth manner throughout the preview. Furthermore, to improve parameters selection we augment sliders controlling parameters with visual previews revealing the changes that will be introduced upon manipulation. Second, to allow user interactions with these visual previews we rely on a fast patch-based synthesizer. This synthesizer achieves a high degree of parallelism and is implemented entirely on the GPU. Finally, rather than generating the output of the synthesizer as a bitmap texture we encode the result in a compact representation and allow to decoding texels from this representation during rendering
220

Formal methods for distributed real-time systems / Méthodes formelles pour les systèmes distribués temps-réel

Dellabani, Mahieddine 31 October 2018 (has links)
Nowadays, real-time systems are ubiquitous in several application domains.Such an emergence led to an increasing need of performance (resources,availability, concurrency, etc.) and initiated a shift from theuse of single processor based hardware platforms, to large setsof interconnected and distributed computing nodes. This trend introduced the birthof a new family of systems that are intrinsically distributed, namelyemph{Networked Embedded Systems}.Such an evolution stems from the growing complexity of real-time softwareembedded on such platforms (e.g. electronic control in avionicsand automotive domains), and the need to integrate formerly isolated systems so thatthey can cooperate, as well as share resources improving thus functionalitiesand reducing costs.Undoubtedly, the design, implementation and verification of such systems areacknowledged to be very hard tasks since theyare prone to different kinds of factors, such as communication delays, CPU(s)speed or even hardware imprecisions, which increases considerably the complexity ofcoordinating parallel activities.In this thesis, we propose a rigorous design flow intended forbuilding distributed real-time applications.We investigate timed automata based models, with formally defined semantics, in orderto study the behavior of a given system with some imposed timing constraints when deployedin a distributed environment. Particularly, we study emph{(i)} the impact of the communicationdelays by introducing a minimum latency between actions executions and the effectivedate at which actions executions have been decided,and emph{(ii)} the effect of hardware imperfections, more precisely clocks imprecisions,on systems execution by breaking the perfect clocks hypothesis, often adopted duringthe modeling phase. Nevertheless, timed automata formalism is intended to describe a highlevel abstraction of the behavior of a given application.Therefore, we use an intermediate representation ofthe initial application that, besides having say{equivalent} behavior, explicitly expressesimplementation mechanisms, and thus reduces the gap between the modeling and the concreteimplementation. Additionally, we contribute in building such systems by emph{(iii)}proposing a knowledge based optimization method that aims to eliminate unnecessarycomputation time or exchange of messages during the execution.We compare the behavior of each proposed model to the initial high level model and study therelationships between both. Then, we identify and formally characterize the potential problemsresulting from these additional constraints. Furthermore, we propose execution strategies thatallow to preserve some desired properties and reach a say{similar} execution scenario,faithful to the original specifications. / Aujourd'hui, les systèmes temps réel sont omniprésents dans plusieurs domaines.Une telle expansion donne lieu à un besoin croissant en terme de performance (ressources,disponibilité, parallélisme, etc.) et a initié par la même occasion une transition del'utilisation de plateformes matérielles à processeur unique, à de grands ensemblesde nœuds de calcul inter-connectés et distribués. Cette tendance a donné la naissanceà une nouvelle famille de systèmes connue sous le nom de emph{Networked Embedded Systems},qui sont intrinsèquement distribués.Une telle évolution provient de la complexité croissante des logiciels temps réelembarqués sur de telles plateformes (par exemple les système de contrôle en avioniqueet dans domaines de l'automobile), ainsi que la nécessité d'intégrer des systèmes autrefoisisolés afin d'accomplir les fonctionnalités requises, améliorant ainsi les performanceset réduisant les coûts.Sans surprise, la conception, l'implémentation et la vérification de ces systèmes sontdes tâches très difficiles car ils sont sujets à différents types de facteurs, tels que lesdélais de communication, la fréquence du CPU ou même les imprécisions matérielles,ce qui augmente considérablement la complexité lorsqu'il s'agit de coordonner les activités parallèles.Dans cette thèse, nous proposons une démarche rigoureuse destinée à la construction d'applicationsdistribuées temps réel.Pour ce faire, nous étudions des modèles basés sur les automates temporisés, dont la sémantiqueest formellement définie, afin d'étudier le comportement d'un système donné avec des contraintes de tempsimposées lorsqu'il est déployé dans un environnement distribué. En particulier, nous étudionsemph{(i)} l'impact des délais de communication en introduisant une latence minimale entreles exécutions d'actions et la date à laquelle elles ont été décidées,et emph{(ii)} l'effet des imperfections matérielles, plus précisément les imprécisionsd'horloges, sur l'exécution des systèmes.Le paradigme des automates temporisés reste néanmoins destiné à décrire une abstractiondu comportement d'une application donnée.Par conséquent, nous utilisons une représentation intermédiaire del'application initiale, qui en plus d'avoir un comportement say{équivalent}, exprimeexplicitement les mécanismes mis en œuvre durant l'implémentation, et donc réduit ainsil'écart entre la modélisation et l'implémentation réelle.De plus, nous contribuons à la construction de tels systèmes en emph{(iii)}proposant une optimisation basée sur la emph{connaissance}, qui a pour but d'éliminer lestemps de calcul inutiles et de réduire les échanges de messages pendant l'exécution.  Nous comparons le comportement de chaque modèle proposé au modèle initial et étudionsles relations entre les deux. Ensuite, nous identifions et caractérisons formellement lesproblèmes potentiels résultants de ces contraintes supplémentaires. Aussi, nous proposonsdes stratégies d'exécution qui permettent de préserver certaines propriétés souhaitéeset d'obtenir des scénarios d'exécution say{similaires}, et fidèles aux spécificationsde départs.

Page generated in 0.0653 seconds