• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 201
  • 43
  • 2
  • Tagged with
  • 722
  • 722
  • 334
  • 329
  • 196
  • 174
  • 144
  • 126
  • 114
  • 113
  • 104
  • 88
  • 83
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Développement de méthodes intelligentes pour la gestion énergétique des bâtiments, utilisant des capteurs sans fils / Development of the wireless microsensors for building energy management systems

Nguyen, Nhat Hai 11 July 2011 (has links)
L’utilisation des charges de manière active et intelligente et leur gestion optimale sont parmiles préoccupations majeures des gestionnaires, des fournisseurs, des commercialisateurs et desconsommateurs d’énergie, et constitue l’un de axes privilégies du projet smart-grid.L’objectif de cette thèse est de développer et réaliser un système de pilotage des charges desbâtiments résidentiels ou tertiaires en temps réel en utilisant des réseaux de capteurs sans fil. Lesméthodes de gestion de charge ont été développées afin de minimiser les pics de consommation,maintenir le confort thermique et minimiser le coût global de consommation. Une conception dusystème de gestion des charges en temps réel sans fil a été proposée avec la communicationstandardisée ZigBee. Des démonstrateurs basés sur la régulation adaptative des chauffages et desclimatisations d’une part et sur une méthode de délestage doux pour des cuisinières d’autre part ontété développés. Le prototype du système proposé a été réalisé et testé lors de campagnes demesures sur un appartement expérimental afin de montrer l’intérêt et les performances des méthodesproposées. Le système développé permet d’éviter l’utilisation des modèles prédictifs qui sont trèsdifficiles à identifier et à reconfigurer en cas d’ajout de nouveaux appareils électriques dans lesbâtiments contrôlés. / Load management in an active and intelligent way is one of the major concerns of distributionsystems operators, suppliers and consumers of energy, particularly in the context of the smart-gridproject.The aim of this thesis is to develop and implement a real-time energy management systembased on wireless sensor networks in buildings (residential and tertiary sector). The methods of loadmanagement have been developed to minimize peak demand, maintain thermal comfort, andminimize the cost of consumption. A concept of real-time load management using a wireless sensornetwork has been proposed, based on the ZigBee communication standard. Demonstrators ofadaptive control of heating and air conditioning and of intelligent load shedding for electrical cookershave been developed. The prototypes of the proposed systems have been built and tested on anexperimental apartment to demonstrate the usefulness and effectiveness of these methods. Thedeveloped system allows to avoid the use of predictive models that are very difficult to identify andself-reconfigure when new electrical devices are added in a building.
312

Etude du repliement des protéines par RMN temps réel et autres méthodes biophysiques : l'exemple de la Beta-2-microglobuline / Folding of proteins studied by real time NMR and other biophysical methods : the example of Beta-2-microglobulin : the example of Beta-2-microglobulin

Cutuil, Thomas 14 December 2012 (has links)
La Beta-2-microglobuline est une protéine de 12kDa, impliquée dans une maladie dûe à un mauvais repliement: l'amylose liée à la dialyse. Elle constitue donc un modèle pour la formation de fibrilles amyloides et pour le repliement des protéines. La B2M est un objet à la fois difficile et fructueux à étudier. La production de B2M est complexe et demande une optimisation important pour obtenir une protéine correctement repliée et atteindre des rendements approprié pour des études de RMN et SAXS. Le repliement de la B2M est sensible au solvent, à la température, à la concentration et souvent aux conditions de préparation. Pourtant notre étude, à l'aide de plusieurs méthodes biophysiques, a pu révéler plusieurs faits essentiels de son mécanisme de repliement et de la structure et propriétés des intermédiaires. Un premier résultat est que le repliement et l'oligomérisation sont deux processus concourants. Une découverte majeure est l'existence d'un équilibre monomère oligomère entre deux états I1 et I2 intermédiaires du repliement. Détecté indirectement à l'aide de RMN temps réel comme SOFAST, I2 a été directement charactérisé en SAXS: Il s'agit probablement d'un dimère. Les états intermédiaires de repliement de B2M avaient été pointés comme favorisant la formation de fibrilles: cela s'explique facilement avec l'existence d'un intermédiaire dimérique. Une combinaison de méthodes biophysiques permet la caractérisation de cet équilibre monomère-oligomère. En SAXS, puis confirmé en RMN, la stoichiométrie de l'équilibre est celle d'un monomère-dimère. Des travaux complémentaires utilisant les techniques développées pour cette étude pourront servir à caractériser plus finement cet équilibre. L'étude approfondie du repliement de B2M pousse les techniques biophysiques dans leurs retranchements: la sensibilité et le temps d'acquisition pour la RMN, la polydispersité pour le SAXS. Pourtant dans les deux cas un grand oligomère I3, qui disparait en quelques minutes, a pu être détecté, ce qui fut confirmé par UV-Fluo. La caractérisation d'I3 demandera des dévelopements méthodologiques supplémentaires, ainsi qu'un nouveau plan d'expérience. D'autres méthodes comme la spectrométrie de masse nano-ESI pourraient représenter des sources d'information utiles. S'attaquer aux limites des méthodes biophysiques pousse au développement méthodologique. Ainsi pour étudier la structure et dynamique d'I1, la méthode d'acquisition continue des données a permis l'attribution des résonnances de cette espèce qui a une demi vie de quelques dizaines de minutes. Un échange conformationnel a été découvert pour l'état I1 du mutant W60G, en développant une méthode de relaxation RMN: R2-BEST-TROSY. Les méthodes développées pour cette étude pourront servir des études sur le repliement d'autres protéines, mais aussi dans d'autres contextes où la demi-vie des objets étudiés est courte, comme dans les expérience RMN intracellulaires. Cette étude est évidemment éloignée d'une application directe dans le combat contre les maladies du mauvais repliement des protéines. Pour autant, la découverte d'états intermédiaires oligomériques souligne que l'oligomérisation et le repliement ne devraient pas être étudiés séparément, mais sont des processus liés. Les développements méthodologiques de cette étude pourront aussi être appliqués à d'autres protéines comme à d'autres contexte. Il est donc permis d'espérer que ces questionnements et développements permettront d'avancer vers une meilleure compréhension de ces maladies. / Beta-2-microglobulin is a 12kDa protein, involved in a misfolding disease: dialysis related amyloidosis. It is therefore a model for amyloid fibril formation and protein folding studies. B2M is both a fruitful and difficult object of study. B2M production is complex, requiring optimization to obtain a well folded protein and reach yields suitable to NMR and SAXS studies. B2M folding is highly sensitive on buffer, temperature, concentration and often preparation conditions. Yet our studies, using several biophysical methods, revealed several essential facts of the folding mechanism and of the structure and dynamics of folding intermediates. A first outcome of our studies is that folding and oligomerization are co-existing processes. A major finding is the existence of a monomer-oligomer equilibrium between I1 and I2 folding intermediate states. Indirectly detected using real time NMR methods like SOFAST, I2 was directly detected and characterized using SAXS: I2 is likely to be a dimer. Folding intermediate states of B2M had been shown to favor fibril formation: this is easily explained by the existence of a dimeric folding intermediate state with an important population. A combination of biophysical methods allows the characterization of this monomer-oligomer equilibrium. Using SAXS, and later confirmed by NMR relaxation experiments, stoichiometry is shown to be a monomer-dimer equilibrium. Further work based on the methodology applied to the folding of the W60G-B2M mutant, including a further optimization of the sensitivity of the experiment, will give a sharper picture of the I1-I2 equilibrium for the WT protein, and may provide information on the timescale of the equilibrium. The thorough study of the folding of B2M pushes biophysical methods to their limits: sensitivity and acquisition time for NMR, polydispersity for SAXS. Yet in both cases a large oligomer (I3) that disappears within minutes was detected, and confirmed using UV-fluo. Characterization of I3 will demand further methodological developments, a new experimentation plan including a full dilution scale, or double jump experiments, for example. A question that arises is the comparison of this large oligomer and oligomeric intermediate states that are populated during the formation of fibrils. Other biophysical methods, such as ESI mass spectroscopy, may be an interesting input. Tackling the limits of biophysical methods leads to methodological developments. For example, to study the structure and dynamics of I1, the continuous data acquisition method allowed the assignment of this species that has a half-lifetime of tens of minutes. A conformational exchange was discovered for the I1 state of the W60G-B2M mutant, through the development of a spin relaxation measurement experiment: R2-BEST-TROSY. The methods developed for this study may be later used to study the folding and folding intermediate states of other proteins, such as alpha-lactalbumin , or in other contexts in which the short lifetime of the protein is an issue, as for in-cell NMR experiments. Our studies are of course far from an application or a concrete result in the fight against misfolding diseases such as dialysis related amyloidosis or Parkinson's. But the discovery of oligomeric folding intermediate states underlines that oligomerization (including fibril formation) and folding should not be studied separately, and are processes that are closely related. Methodological developments included in our work can be applied to other proteins as well as other contexts. Hopefully these questionings and developments will constitute a step forward a better understanding of this diseases.
313

Grilles de perception évidentielles pour la navigation robotique en milieu urbain / Evidential perception grids for robotics navigation in urban environment

Moras, Julien 17 January 2013 (has links)
Les travaux de recherche présentés dans cette thèse portent sur le problème de la perception de l’environnement en milieu urbain, complexe et dynamique et ce en présence de mesures extéroceptives bruitées et incomplètes obtenues à partir decapteurs embarqués. Le problème est formalisé sous l’angle de la fusion de données capteurs à l’aide d’une représentation spatiale de l’environnement. Ces travaux ont été réalisés pour la navigation autonome de véhicules intelligents dans le cadre du projet national ANR CityVIP. Après avoir considéré les principaux formalismes de modélisation de l’incertitude, un système de fusion de grilles spatio-référencées gérant l’incertitude avec des fonctions de croyances est étudié. Ce système est notamment capable de fusionner les mesures d’un lidar multi-nappes et multi-échos, obtenues à différents instants pour construire une carte locale dynamique sous la forme discrète d’une grille d’occupation évidentielle.Le principal avantage des fonctions de croyance est de représenter de manière explicite l’ignorance et ne nécessite donc pas d’introduire d’information à priori non fondée. De plus, ce formalisme permet d’utiliser facilement l’information conflictuelle pour déterminer la dynamique de la scène comme par exemple les cellules en mouvement. Le formalisme de grilles d’occupation évidentielles est présenté en détails et un modèle de capteur lidar multi-nappes et multi-echos est ensuite proposé. Deux approches de fusion séquentielle multi-grilles sont étudiées selon les paradigmes halocentréet égo-centré. Enfin, l’implémentation et les tests expérimentaux des approches sont décrits et l’injection d’informations géographiques connues a priori est étudiée. La plupart des travaux présentés ont été implémentés en temps réel sur un véhicule du laboratoire et de nombreux tests en conditions réelles ont été réalisés avec une interface d’analyse de résultat utilisant une rétro-projection dans une image grand angle. Les résultats ont été présentés dans 5 conférences internationales [Moras et al., 2010, Moras et al., 2011a, Moras et al., 2011b, Moras et al., 2012, Kurdej et al., 2012] etle système expérimental a servi à la réalisation de démonstrations officielles dans le cadre du projet CityVIP à Paris et lors de la conférence IEEE Intelligent Vehicles Symposium 2011 en Allemagne. / The research presented in this thesis focuses on the problem of the perception of the urban environment which is complex and dynamic in the presence of noisy and incomplete exteroceptive measurements obtained from on-board sensors. The problem is formalized in terms of sensor data fusion with a spatial representation of the environment. This work has been carried out for the autonomous navigation of intelligent vehicles within the national project ANR CityVIP. After having considered various formalisms to represent uncertainty, a fusion of spatio-referenced grids managing uncertainty with belief functions is studied. This system is capable of merging multi-layers and multi-echoes lidar measurements, obtainedat different time indexes to build a dynamic local map as a discrete evidential occupancy grid. The main advantages of belief functions are, firstly, to represent explicitly ignorance, which reduces the assumptions and therefore avoid introducing wrong a priori information and, secondly, to easily use conflicting information to determine the dynamics of the scene such as movements of the cells. The formalism of evidential occupancy grids is then presented in details and two multi-layers and multi-echos lidar sensor models are proposed. The propagation of the information through geometrical transformations is formalized in a similar way of image transformation framework. Then, the implementation of the approach is described and the injection of prior geographic information is finally investigated. Most of the works presented have been implemented in real time on a vehicle and many tests in real conditions have been realized. The results of these researches were presented through five international conferences [Moras et al., 2010, Moras et al., 2011a, Moras et al., 2011b, Moras et al., 2012], [Kurdej et al., 2012] and the experimental vehicle was presented at the official demonstration project CityVIP in Paris and at the IEEE Intelligent Vehicles Symposium 2011, in Germany.
314

Une approche statistique des réseaux temps réel embarqués / A statistical approach to embedded real-time networks

Mauclair, Cédric 13 June 2013 (has links)
Depuis quelques années, les réseaux de communication déployés au sein d’aéronefs sont toujours plus vastes et plus complexes. Ces bus numériques multiplexent différents flux de données afin de limiter les câbles, mais cela induit des retards sur les transmissions. Les travaux présentés ici portent sur une approche statistique de l’évaluation des performances du pire temps de traversée d’un réseau embarqué de type AFDX. Il s’agit de définir une nouvelle approche visant à associer à un calcul pire cas, une distribution des temps de transmission des messages, en vue notamment de permettre d’apprécier le pessimisme du calcul pire cas. Les méthodes décrites sont applicables dans le cadre plus général d’un ensemble de tâches. Nous proposons trois contributions dans ces travaux. Tout d’abord, une méthode originaled’évaluation de la distribution de la durée de traversée d’un commutateur AFDX qui s’appuie sur une énumération symbolique des scénarios d’ordonnancement dans la file d’attente. Puis, un algorithme efficace de calcul des délais subis par des messages/tâches périodiques lorsque les déphasages initiaux sont connus. Les délais calculés sont exacts ainsi que la distribution de probabilité. Enfin, le calcul de la distribution des délais subis par des messages/tâches dans un cadregénéral, à l’aide d’une méthode statistique de type Monte Carlo. Des décalages initiaux sont tirés aléatoirement et permettent de nourrir l’algorithme précédent. / Since a few years, communication networks deployed in aircrafts are ever larger and ever more complex. These digital buses multiplex different data streams in order to save cabling, but this causes delays on transmissions.The work presented here is based on a statistical evaluation of the worst case transit time of an embedded network of the AFDX type. It consists in associating a worst case computation with a complete distribution of the transit times in order, among other things, to appreciatethe pessimism of worst case approaches. The methods are also applicable to a set of realtime tasks. This work contributes three major results. First, an original method to evaluate the distribution of the transit time through an AFDX switch, based on the symbolic enumeration of the scheduling scenarios in the waiting queues of the switch. Second, an effective algorithm to compute the delays encountered by periodic messages/ tasks when initial offsets are known. Delays thus computed are exact and so is the delays distribution. Third, the computation of the delays distribution encountered by messages/tasks in a general case using a Monte Carlo based statistical method. Initial offsets are randomised and feed the preceding algorithm.
315

Level-Of-Details Rendering with Hardware Tessellation / Rendu de niveaux de détails avec la Tessellation Matérielle

Lambert, Thibaud 18 December 2017 (has links)
Au cours des deux dernières décennies, les applications temps réel ont montré des améliorations colossales dans la génération de rendus photoréalistes. Cela est principalement dû à la disponibilité de modèles 3D avec une quantité croissante de détails. L'approche traditionnelle pour représenter et visualiser des objets 3D hautement détaillés est de les décomposer en un maillage basse fréquence et une carte de déplacement encodant les détails. La tessellation matérielle est le support idéal pour implémenter un rendu efficace de cette représentation. Dans ce contexte, nous proposons une méthode générale pour la génération et le rendu de maillages multi-résolutions compatibles avec la tessellation matérielle. Tout d'abord, nous introduisons une métrique dépendant de la vue capturant à la fois les distorsions géométriques et paramétriques, permettant de sélectionner la le niveau de résolution approprié au moment du rendu. Deuxièmement, nous présentons une nouvelle représentation hiérarchique permettant d'une part des transitions temporelles et spatiales continues entre les niveaux et d'autre part une tessellation matérielle non uniforme. Enfin, nous élaborons un processus de simplification pour générer notre représentation hiérarchique tout en minimisant notre métrique d'erreur. Notre méthode conduit à d'énormes améliorations tant en termes du nombre de triangles affiché qu'en temps de rendu par rapport aux méthodes alternatives. / In the last two decades, real-time applications have exhibited colossal improvements in the generation of photo-realistic images. This is mainly due to the availability of 3D models with an increasing amount of details. Currently, the traditional approach to represent and visualize highly detailed 3D objects is to decompose them into a low-frequency mesh and a displacement map encoding the details. The hardware tessellation is the ideal support to implement an efficient rendering of this representation. In this context, we propose a general framework for the generation and the rendering of multi-resolution feature-aware meshes compatible with hardware tessellation. First, we introduce a view-dependent metric capturing both geometric and parametric distortions, allowing to select the appropriate resolution at rendertime. Second, we present a novel hierarchical representation enabling on the one hand smooth temporal and spatial transitions between levels and on the other hand a non-uniform hardware tessellation. Last, we devise a simplification process to generate our hierarchical representation while minimizing our error metric. Our framework leads to huge improvements both in terms of triangle count and rendering time in comparison to alternative methods.
316

Mixed criticality management into real-time and embedded network architectures : application to switched ethernet networks / Gestion de la criticité mixte dans les réseaux temps-réel embarqués et application à ethernet commuté

Cros, Olivier 08 December 2016 (has links)
La CM (Criticité Mixte) est une solution pour intégrer différents niveaux de criticité dans le même système au sein des mécanismes industriels intégrant des infrastructures réseau différentes. Notre objectif est de proposer des solutions pour intégrer la criticité mixte dans des domaines industriels hautements contraints afin de mélanger des flux de différentes criticité au sein de la même infrastructure. Cette intégration implique des contraintes d'isolation : l'impact du traffic non critique sur le traffic critique doit être borné, et le plus faible possible. C'est une condition indispensable pour assurer le respect des contraintes de temps de transmission. Afin d'analyser ces délais de transmission et de centrer notre travail sur le déterminisme de ces transmissions, nous avons recours à une méthode de calcul de délai de bout en bout appelé l'approche par trajectoires. Dans ce travail, nous utilisons une version corrigée de l'approche par trajectoires, prenant en compte la serialisation des messages.Afin d'assurer les contraintes de délais dans les réseaux à criticité mixte, nous présentons tout d'abord un modèle théorique d'intégration de la criticité mixte. Ce modèles est issu de l'ordonnancement temps-réel en contexte processeur. Ce modèle présente une modélisation des flux considérant que chaque flux peut être de plusieurs niveaux de criticité.Pour intégrer la criticité mixte dans les réseaux temps-réel, nous proposons deux protocoles différents. Le premier est le protocole centralisé. Il est organisé autour de la désignation d'un noeud central dans le réseau, responsable de la synchronisation des niveaux de criticité de chaque noeud via a un mécanisme d'émission multiple fiable. Ce mécanisme est chargé de faire changer les niveaux de criticité de tous les noeuds au même instant. Le second protocole est basé sur une approche distribuée. Il propose une gestion locale à chaque noeud de la criticité. Chaque noeud gère individuellement son propre niveau de criticité interne. Ce protocol permet de préserver les transmissions d'une part du traffic non critique au sein du réseau, même en parallèle de transmissions de flux critiques.Afin de proposer une implémentation de ces protocoles dans Ethernet, nous détaillons comment réutiliser la marque de l'en-tête de Ethernet 802.1Q pour spécifier le niveau criticité d'un message directement au sein de la trame. Grâce à cette solution, chaque flux du réseau est marqué de son niveau de criticité et cette information peut être décodée par les noeuds du réseau afin d'opérer un ordonnancement en conséquence. De plus, en gestion centralisée, nous proposons une solution permettant d'intégrer les informations de gestion de la criticité directement dans les trames du protocole de synchronization d'horloge gls{PTP}.Durant notre travail, nous avons conçu un outil de simulation dénommé gls{ARTEMIS}. Cet outil est utilisé pour l'analyse de délais de transmission dans des réseaux temps-réel et pour l'analyse de scénarios d'ordonnancement à criticité mixte. Les résultats de simulation obtenus nous permettent de formuler différentes hypothèses sur les garanties de qualité de service offertes par les protocoles centralisé et décentralisé. En termes de transmission de trafic non critique, le protocole décentralisé permet d'assurer la transmission d'une certaine quantité de messages grâce au fait que certains noeuds du réseau soient resté en mode non-critique.Pour conclure, nous proposons des solutions d'intégration de la criticité mixte à la fois dans des contextes industriels lourds et dans des architectures Ethernet grand public. Les solutions proposées peuvent être à la fois adaptées à des réseaux synchronisés ou non synchronisés. Selon le protocole, la configuration individuelle à appliquer à chaque noeud peut être réduite afin de proposer des solutions implémentables sur du matériel moins coûteux / MC (Mixed-Criticality) is an answer for industrial systems requiring different network infrastructures to manage informations of different criticality levels inside the same system. Our purpose in this work is to find solutions to integrate gls{MC} inside highly constrained industrial domains in order to mix flows of various criticality levels inside the same infrastructure. This integration induces isolation constraints : the impact of non-critical traffic on critical traffic must be characterized and bounded. This a condition to respect timing constraints. To analyze transmission delays and focus on the determinism of transmissions, we use an end-to-end delay computation method called the trajectory approach. In our work, we use a corrected version of the trajectory approach taking into account the serialization of messages.To assure the respect of timing constraints in mixed critical networks, we first present a theoretical model of gls{MC} representation. This model is issued from gls{MC} tasks scheduling on processors. This model proposes a flow modelization which considers that each flow can be of one (low critical flows) or several criticality levels.To integrate gls{MC} inside gls{RT} networks, we propose two network protocols. The first is the centralized protocol. It is structured around the definition of a central node in the network, which is responsible for synchronizing the criticality level switch of each node through a reliable multicast protocol in charge of switching the network criticality level. This centralized protocol proposes solutions to detect the needs to change the criticality levels of all nodes and to transmit this information to the central node. The second protocol is based on a distributed approach. It proposes a local gls{MC} management on each node of a network. Each node individually manages its own internal criticality level. This protocol offers solutions to preserve when possible non-critical network flows even while transmitting critical flows in the network through weak isolation.In order to propose an implementation of these protocols inside Ethernet, we describe how to use Ethernet 802.1Q header tag to specify the criticality level of a message directly inside the frame. With this solution, each flow in the network is tagged with its criticality level and this information can be analyzed by the nodes of the network to transmit the messages from the flow or not. Additionnally, for the centralized approach, we propose a solution integrating gls{MC} configuration messages into gls{PTP} clock-synchronization messages to manage criticality configuration information in a network.In this work, we designed a simulation tool denoted as gls{ARTEMIS} (Another Real-Time Engine for Message-Issued Simulation). This tool is dedicated to gls{RT} networks analysis and gls{MC} integration scheduling scenarios. This tool, based on open and modular development guidelines, has been used all along our work to validate the theoretical models we presented through simulation. We integrated both centralized and decentralized protocols inside gls{ARTEMIS} core. The obtained simulations results allowed us to provide information about the gls{QOS} guarantees offered by both protocols. Concerning non-critical traffic : the decentralized protocol, by permitting specific nodes to stay in non-critical nodes, assures a highest success ratio of non-critical traffic correct transmission.As a conclusion, we propose solutions to integrate gls{MC} inside both industrial and gls{COTS} Ethernet architectures. The solutions can be either adapted to clock-synchronized or non clock-synchronized protocols. Depending on the protocol, the individual configuration required by each switch can be reduced to adapt these solutions to less costly network devices
317

Outils multirésolutions pour la gestion des interactions en simulation temps réel / A multiresolution framework for real-time simulation interactions

Pitiot, Thomas 17 December 2015 (has links)
La plupart des simulations interactives ont besoin d'un modèle de détection de collisions. Cette détection nécessite d'une part d'effectuer des requêtes de proximité entre les entités concernées et d'autre part de calculer un comportement à appliquer. Afin d'effectuer ces requêtes, les entités présentes dans une scène sont soit hiérarchisées dans un arbre ou dans un graphe de proximité, soit plongées dans une grille d'enregistrement. Nous présentons un nouveau modèle de détection de collisions s'appuyant sur deux piliers : une représentation de l'environnement par des cartes combinatoires multirésolutions et un suivi en temps réel de particules plongées dans ces cartes. Ce modèle nous permet de représenter des environnements complexes tout en suivant en temps réel les entités évoluant dans cet environnement. Nous présentons des outils d'enregistrement et de maintien de l'enregistrement de particules, d'arêtes et de surfaces dans des cartes combinatoires volumiques multirésolutions. / Most interactive simulations need a collision detection system. First, this system requires the querying of the proximity between the objects and then the computing of the behaviour to be applied. In order to perform these queries, the objects present in a scene are either classified in a tree, in a proximity graph, or embedded inside a registration grid.Our work present a new collision detection model based on two main concepts: representing the environment with a combinatorial multiresolution map, and tracking in real-time particles embedded inside this map. This model allows us to simulate complex environments while following in real-time the entities that are evolving within it.We present our framework used to register and update the registration of particles, edges and surfaces in volumetric combinatorial multiresolution maps. Results have been validated first in 2D with a crowd simulation application and then in 3D, in the medical field, with a percutaneous surgery simulation.
318

Extraction and traceability of annotations for WCET estimation / Extraction et traçabilité d’annotations pour l’estimation de WCET

Li, Hanbing 09 October 2015 (has links)
Les systèmes temps-réel devenaient omniprésents, et jouent un rôle important dans notre vie quotidienne. Pour les systèmes temps-réel dur, calculer des résultats corrects n’est pas la seule exigence, il doivent de surcroît être produits dans un intervalle de temps borné. Connaître le pire cas de temps d’exécution (WCET - Worst Case Execution Time) est nécessaire, et garantit que le système répond à ses contraintes de temps. Pour obtenir des estimations de WCET précises, des annotations sont nécessaires. Ces annotations sont généralement ajoutées au niveau du code source, tandis que l’analyse de WCET est effectuée au niveau du code binaire. L’optimisation du compilateur est entre ces deux niveaux et a un effet sur la structure du code et annotations. Nous proposons dans cette thèse une infrastructure logicielle de transformation, qui pour chaque optimisation transforme les annotations du code source au code binaire. Cette infrastructure est capable de transformer les annotations sans perte d’information de flot. Nous avons choisi LLVM comme compilateur pour mettre en œuvre notre infrastructure. Et nous avons utilisé les jeux de test Mälardalen, TSVC et gcc-loop pour démontrer l’impact de notre infrastructure sur les optimisations du compilateur et la transformation d’annotations. Les résultats expérimentaux montrent que de nombreuses optimisations peuvent être activées avec notre système. Le nouveau WCET estimé est meilleur (plus faible) que l’original. Nous montrons également que les optimisations du compilateur sont bénéfiques pour les systèmes temps-réel. / Real-time systems have become ubiquitous, and play an important role in our everyday life. For hard real-time systems, computing correct results is not the only requirement. In addition, the worst-case execution times (WCET) are needed, and guarantee that they meet the required timing constraints. For tight WCET estimation, annotations are required. Annotations are usually added at source code level but WCET analysis is performed at binary code level. Compiler optimization is between these two levels and has an effect on the structure of the code and annotations.We propose a transformation framework for each optimization to trace the annotation information from source code level to binary code level. The framework can transform the annotations without loss of flow information. We choose LLVM as the compiler to implement our framework. And we use the Mälardalen, TSVC and gcc-loops benchmarks to demonstrate the impact of our framework on compiler optimizations and annotation transformation. The experimental results show that with our framework, many optimizations can be turned on, and we can still estimate WCET safely. The estimated WCET is better than the original one. We also show that compiler optimizations are beneficial for real-time systems.
319

Scheduling of parallel real-time DAG tasks on multiprocessor systems / Ordonnancement temps réels des tâches parallèles sur des systèmes multiprocesseurs.

Qamhieh, Manar 26 January 2015 (has links)
Les applications temps réel durs sont celles qui doivent exécuter en respectant des contraintes temporelles. L'ordonnancement temps réel a bien été étudié sur mono-processeurs depuis plusieurs années. Récemment, l'utilisation d'architectures multiprocesseurs a augmenté dans les applications industrielles et des architectures parallèles sont proposées pour que le logiciel devienne compatible avec ces plateformes. L'ordonnancement multiprocesseurs de tâches parallèles dépendantes n'est pas une simple généralisation du cas mono-processeur et la problématique d'ordonnancement devient plus complexe et difficile.
Dans cette thèse, nous étudions le problème d'ordonnancement temps réel de graphes de tâches parallèles acycliques sur des plateformes multiprocesseurs. Dans ce modèle, un graphe est composé d'un ensemble de sous-tâches dépendantes sous contraintes de précédence qui expriment les relations de précédences entre les sous-tâches. L'ordre d'exécution des sous-tâches est dynamique, c'est-à-dire que les sous-tâches peuvent s'exécuter en parallèle ou séquentiellement par rapport aux décisions de l'ordonnanceur temps réel. Pour traiter les contraintes de précédence, nous proposons deux méthodes pour l'ordonnancement des graphes : par transformation du modèle de graphe de sous tâches parallèles en un modèle de tâches séquentielles indépendantes, plus simple à ordonnancer et par ordonnancement direct des graphes en prenant en compte les relations de dépendance entre les sous-tâches. Nous proposons un ordonnancement des graphes en prenant directement en compte les paramètres temporels des graphes et un ordonnancement au niveau des sous-tâches, par rapport à des paramètres temporels attribués aux sous-tâches par un algorithme spécifique.
Enfin, nous prouvons que les deux méthodes d'ordonnancement de graphes ne sont pas comparables. Nous fournissons alors des résultats de simulation pour comparer ces méthodes en utilisant les algorithmes d'ordonnancement globaux EDF et DM. Nous avons développé un logiciel nommé YARTISS pour générer des graphes aléatoires et réaliser les simulations / The interest for multiprocessor systems has recently been increased in industrial applications, and parallel programming API's have been introduced to benefit from new processing capabilities. The use of multiprocessors for real-time systems, whose execution is performed based on certain temporal constraints is now investigated by the industry. Real-time scheduling problem becomes more complex and challenging in that context. In multiprocessor systems, a hard real-time scheduler is responsible for allocating ready jobs to available processors of the systems while respecting their timing parameters.
In this thesis, we study the problem of real-time scheduling of parallel Directed Acyclic Graph (DAG) tasks on homogeneous multiprocessor systems. In this model, a DAG task consists of a set of subtasks that execute under precedence constraints. At all times, the real-time scheduler is responsible for determining how subtasks execute, either sequentially or in parallel, based on the available processors of the system. We propose two DAG scheduling approaches to determine the execution form of DAG tasks. The first approach is the DAG Stretching algorithm, from the Model Transformation approach, which forces DAG tasks to execute as sequentially as possible. The second approach is the Direct Scheduling, which aims at scheduling DAG tasks while respecting their internal dependencies. We provide real-time schedulability analyses for Direct Scheduling at DAG-Level and at Subtask-Level.
Due to the incomparability of DAG scheduling approaches, we use extensive simulations to compare performance of global EDF with global DM scheduling using our simulation tool YARTISS
320

Paléoécologie des protistes à partir d'archives biologiques provenant d'écosystèmes marins côtiers / Protist paleoecology from biological archives of the marine coastal ecosystems

Klouch, Khadidja Zeyneb 29 September 2016 (has links)
La composition des communautés de protistes et leur dynamique temporelle sont traditionnellement étudiées en analysant des séries de données de surveillance/observation dont la mise en place est relativement récente (≤40 ans). Dans cette étude, nous avons analysé les traces biologiques (formes de résistance et ADN ancien) préservés dans des sédiments couvrant une échelle temporelle d’environ 150 ans afin d’étudier les changements de la composition et la dynamique temporelle des protistes marins, principalement dans deux écosystèmes estuariens de la rade de Brest (Bretagne, France). Les analyses de metabarcoding montrent que seulement une partie minoritaire (16-18%) de la richesse des protistes (#OTUs) des sédiments superficiels est retrouvée dans les sédiments profonds et que la plupart des protistes présents dans les sédiments anciens sont connus pour être capables de produire des formes de résistance. La composition des communautés de protistes étaient différenciées en deux principales paléocommunautés (avant/après 1950), suggérant une biodiversité spécifique à chaque période. Les abondances relatives des dinoflagellés ont montré une tendance à la baisse depuis les années 70’ et les genres Alexandrium et Gonyaulax ont montré une dynamique opposée en termes d’abondance relative à travers le temps. Les données paléogénétiques (PCR en temps réel) suggèrent qu’A. minutum est présente dans la rade depuis au moins 1873 ± 7 et qu’au cours des derniers 150 ans, l’espèce est devenue envahissante, proliférant dans la rade seulement ces dernières années. De plus, Les données de PCR en temps réel suggèrent que la partie sud-est de la rade, où des sédiments à typologie vaseuse sont plus abondants, est potentiellement plus favorable à l’accumulation des kystes de l’espèce. Les analyses écophysiologiques (taux de croissance, taux de consommation de phosphore, biomasse maximale atteinte) réalisés sur des souches de dinoflagellés (A. minutum et Scrippsiella donghaienis) obtenues par germination montrent une forte variabilité phénotypique intraspécifique au sein des deux espèces et dans les deux milieux étudiés. Les résultats de ces travaux de thèse contribuent au domaine de la recherche en paléoécologie sédimentaire, montrant les avantages et les limites de cette approche pour révéler des patrons biologiques encore peu explorés. / The community composition of protist and their temporal dynamic are are traditionally studied by analyzing data sets of monitoring/observation networks, whose implementation is however relatively recent (≤40 years). In this study, we analyzed the biological traces (resting stages and ancient DNA) preserved in sediments covering a time scale of 150 years in order to study changes in the composition and the temporal dynamics of marine protists, focusing mainly on two estuarine ecosystems of the Bay of Brest (Brittany, France). Metabarcoding analyses showed that only a minor part (16-18%) of the protists richness (#OTUs) of superficial sediments is retrieved in deep sediments, and that most of the protists found in ancient sediments are known to produce resting stages. Two main paleocommunities were differentiated (before/after 1950), suggesting the existence of a distinct and specific biodiversity for the identified periods. The relative abundances of dinoflagellates showed a decreasing trend since the 70s' and Alexandrium and Gonyaulax genera showed an opposite dynamic in terms of relative abundance over the time. Paleogenetic data (real-time PCR) suggest that A. minutum is present in the Bay of Brest since at least 1873 ± 7 and that, across a time scale of about 150 years, the species has proliferated only recently in the estuaries of the bay. Moreover, real-time PCR data suggest that the south-eastern part of the bay, where muddy sediment are more abundant, is potentially more favorable for the accumulation of the species cysts. Ecophysiological analyses (growth rate, phosphorus assimilation rate, and maximal biomass attained) performed on dinoflagellate strains (A. minutum and Scrippsiella donghaienis) showed a strong phenotypic intraspecific variability for both species and for both analyzed media. The results of this thesis work contribute to the research in sedimentary paleoecology, showing the advantages and limits of this approach to reveal still underexplored biological patterns.

Page generated in 0.0614 seconds