• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 311
  • 105
  • 31
  • 1
  • Tagged with
  • 449
  • 154
  • 83
  • 77
  • 68
  • 62
  • 61
  • 47
  • 41
  • 38
  • 38
  • 34
  • 34
  • 33
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Stylisation temporellement cohérente d'animations 3D basée sur des textures / Temporally coherent stylization of 3D animations based on textures

Bénard, Pierre 07 July 2011 (has links)
Cette thèse s'inscrit dans le thème du rendu expressif qui vise à définir des outils de création et de traitement d'images ou d'animations stylisées. Les applications concernent tous les métiers nécessitant une représentation visuelle plus stylisée qu'une photographie : création artistique (jeux vidéo, film d'animation, dessins animés), restitution archéologique, documentation technique, etc. Un critère fondamental de qualité d'une image est l'absence d'artefacts visuels. Cette considération a toujours existé, mais elle est particulièrement importante dans le cas de l'informatique graphique. En effet, la nature même de l'image – des pixels discrets – est source d'artefacts. Les artefacts sont encore plus visibles lorsque l'on s'intéresse aux animations, des artefacts temporels s'ajoutant aux artefacts spatiaux. L'objectif de cette thèse est d'une part de formaliser et mesurer ces artefacts en tenant compte de la perception humaine, et d'autre part de proposer de nouvelles méthodes de stylisation interactive d'animations 3D. Nous présentons tout d'abord un ensemble de techniques pour créer et assurer la cohérence de dessins au trait extraits de scènes 3D animées. Nous proposons ensuite deux méthodes de stylisation des régions de couleur permettant la créations d'un grand nombre de motifs. Le point commun à toutes ces approches est la représentation du médium simulé (pigment d'aquarelle, coup de crayon ou de pinceau...) par une texture évoluant au cours de l'animation. Nous décrivons enfin deux expériences utilisateurs visant à évaluer perceptuellement la qualité des résultats produits par ce type de techniques. / This PhD thesis deals with expressive rendering, a sub-field of computer graphics which aims at defining creation and processing tools to stylize images and animations. It has applications in all the fields that need depictions more stylized than photographs, such as entertainment (e.g., video games, animated films, cartoons), virtual heritage, technical illustration, etc. A crucial criterion to assert the quality of an image is the absence of visual artifacts. While already true for traditional art, this consideration is especially important in computer graphics. Indeed the intrinsic discrete nature of an image can lead to artifacts. This is even more noticeable during animations, as temporal artifacts are added to spatial ones. The goal of this thesis is twofold: (1) To formalize and measure these artifacts by taking into account human perception; (2) To propose new interactive methods to stylize 3D animations. First we present a set of techniques to ensure the coherence of line drawings extracted form 3D animated scenes. Then we propose two methods to stylize shaded regions, which allow to create a wide variety of patterns. The shared ground layer of all these approaches is the use of temporally varying textures to represent the simulated media (e.g., watercolor pigments, brush strokes). Finally we describe two user studies aiming at evaluating the quality of the results produced by such techniques.
12

Développement cérébral normal et convulsions fébriles : étude d'électrophysiologie visuelle

Lippé, Sarah January 2005 (has links)
No description available.
13

Les cohérences fortes : où, quand, et combien / Higher-Level Consistencies : When, Where, and How Much

Woodward, Robert J. 13 September 2018 (has links)
Déterminer si un problème de satisfaction de contraintes (CSP) a une solution ou non est NP-complet. Les CSP sont résolus par inférence (c’est-à-dire, en appliquant un algorithme de cohérence), par énumération (c’est-à-dire en effectuant une recherche avec retour sur trace ou backtracking), ou, plus souvent, en intercalant les deux mécanismes. La propriété de cohérence la plus courante appliquée en cours du backtracking est la GAC (Generalized Arc Consistency). Au cours des dernières années, de nouveaux algorithmes pour appliquer des cohérences plus fortes que le GAC ont été proposés et montrés comme étant nécessaires pour résoudre les problèmes difficiles.Nous nous attaquons à la question de balancer d’une part le coût et, d’autre part, le pouvoir d’élagage des algorithmes de cohérence et posons cette question comme étant celle de déterminer où, quand et combien une cohérence doit-elle être appliquée en cours de backtracking. Pour répondre à la question « où », nous exploitons la structure topologique d'une instance du problème et focalisons la cohérence forte là où des structures cycliques apparaissent. Pour répondre à la question « quand », nous proposons une stratégie simple, réactive et efficace qui surveille la performance du backtracking puis déclenche une cohérence forte lorsque l’effort du retour sur trace devient alarmant. Enfin, pour la question du « combien », nous surveillons les mises à jour provoquées par la propagation des contraintes et interrompons le processus dès qu’il devient inactif ou coûteux même avant qu’il n’atteigne un point fixe. Les évaluations empiriques sur des problèmes de référence établissent l’efficacité de nos stratégies. / Determining whether or not a Constraint Satisfaction Problem (CSP) has a solution is NP-complete. CSPs are solved by inference (i.e., enforcing consistency), conditioning (i.e., doing search), or, more commonly, by interleaving the two mechanisms. The most common consistency property enforced during search is Generalized Arc Consistency (GAC). In recent years, new algorithms that enforceconsistency properties stronger than GAC have been proposed and shown to be necessary to solve difficult problem instances.We frame the question of balancing the cost and the pruning effectiveness of consistency algorithms as the question of determining where, when, and how much of a higher-level consistency to enforce during search. To answer the ‘where’ question, we exploit the topological structure of a problem instance and target high-level consistency where cycle structures appear. To answer the ‘when’ question, we propose a simple, reactive, and effective strategy that monitors the performance of backtrack search and triggers a higher-level consistency as search thrashes. Lastly, for the question of ‘how much,’ we monitor the amount of updates caused by propagation and interrupt the process before it reaches a fixpoint. Empirical evaluations on benchmark problems demonstrate the effectiveness of our strategies.
14

Maintien de la cohérence dans les systèmes d'information répartis

Balter, Roland 02 July 1985 (has links) (PDF)
Ce travail concerne l'étude des techniques de maintien de la cohérence dans les systèmes d'information répartis. il s'appuie principalement sur l'expérience acquise dans la réalisation du projet SCOT. L'objectif consiste a définir un noyau de contrôle de la cohérence, intégrant des mécanismes de base suffisamment souples pour qu'il soit possible aux concepteurs d'applications distribuées de définir des stratégies de contrôle de la cohérence conformes aux exigences de chaque application. dans cette étude, l'accent est mis sur le traitement des erreurs et des pannes. En complément, une analyse comparative de plusieurs mécanismes de verrouillage a permis de déterminer une technique de synchronisation des accès aux objets partagés. les résultats de ce travail ont largement influencé la définition de systèmes d'information répartis en cours de réalisation dans le groupe BULL<br />~
15

Modélisation d'Entreprise : Proposition d'une démarche de construction et de validation de modèles réalisant la cohérence des systèmes de l'entreprise

Fathallah, Abir 16 December 2011 (has links) (PDF)
L'application efficace d'un modèle conduit à visualiser les processus de l'entreprise, à simuler leur fonctionnement et à mettre en place des actions pour améliorer leurs performances. Pour chacun des processus clés de l'entreprise une multitude de modèle est disponible. Nous proposons une méthode de modélisation unique qui permet d'augmenter la compatibilité de différents modèles entre eux et d'améliorer la cohérence de l'entreprise. La première étape de notre méthode de modélisation est de lister les primitives de chaque modèle et de donner une définition claire de chacune de ces primitives. La deuxième étape est l'écriture de la grammaire du modèle. Les règles de modélisation permettent, en effet, d'arranger les primitives selon un certain ordre et d'obtenir un modèle qui a du sens. La troisième étape est la vérification de la validité du modèle. Nous évaluons les performances du modèle par rapport aux services qu'il rend à ses environnants tels que le modélisateur, les utilisateurs ou le système réel. Nous déterminons, par une analyse fonctionnelle, la liste des fonctions à vérifier par le modèle pour que ses services soient atteints. Une étude théorique permet d'appliquer cette méthode de modélisation sur trois des processus inter fonctionnels de l'entreprise : le processus de Supply Chain Management (SCM), le processus de Product Lifecycle Management (PLM) et le processus de Customer Relationship Management (CRM). Nous avons ciblé ces trois processus pour avoir une représentation des quatre sous-systèmes de l'entreprise : le sous-système de Décision (représenté par les finalités de chaque processus), le sous-système Opérant (représenté essentiellement par le processus de SCM), le sous-système d'Information (représenté essentiellement par le processus de PLM) et le sous-système de Connaissances (représenté par les connaissances sur les processus). Les résultats obtenus sont liés au degré de maturité des modèles. Si le processus dispose de plusieurs types de modèles, notre méthode de modélisation permet de clarifier les objectifs de modélisation et d'orienter le choix du manager vers le modèle qui permet de les atteindre. Si le processus dispose de peu de modèles, notre méthode permet de proposer un modèle représentant les étapes du processus global, ses ressources, ses acteurs et les flux échangés. Dans la pratique, toute entreprise industrielle est organisée autour d'un processus qui devient le processus central dont les objectifs sont primordiaux à atteindre, mais cela n'empêche pas les autres processus d'être visibles. L'une des exigences est de conserver la cohérence de toute l'entreprise. Nous définissons la cohérence par deux facteurs : l'unité d'objectif et la compatibilité entre les flux d'information et de connaissances dans l'entreprise. Les conditions de cohérence sont appliquées dans le cas d'une entreprise industrielle sur les modèles de trois processus : le SCM, le PLM et le CRM. Les gains organisationnels sont de permettre une vision globale des étapes et des ressources nécessaires à chaque processus, de distinguer les interfaces et les échanges d'informations entre processus et de capitaliser les connaissances sur la construction, l'utilisation et l'amélioration de modèles.
16

De la quête de cohérence du projet urbain aux pratiques d’ajustements entre vision prospective, stratégies urbaines et opérations d’aménagement : le territoire stéphanois à l’épreuve de l’urbanisme réflexif / The coherence of the urban project seeking to practical adjustments between prospective vision , urban strategies and development operations : Saint-Etienne territory proof reflexive planning

Chemin Le Piolet, Séverine 22 September 2016 (has links)
Dans un contexte de mutations urbaines, d’émergence de dynamiques nouvelles telles que la mondialisation et métropolisation et de multiplication des acteurs intervenant sur les territoires, la question de la cohérence des espaces et des actions qui y sont menées se pose de plus en plus fréquemment. Le projet urbain apparaissant comme l’outil incontournable de la ville contemporaine, cette réflexion pose l’hypothèse selon laquelle la cohérence du projet urbain global réside dans l’articulation des projets relatifs aux différentes échelles constitutives du territoire. Un des objectifs de la recherche est de mesurer l’impact de notre contexte contemporain d'incertitude sur la planification à travers la notion de projet urbain et les modes d’élaboration de projets. La réflexion s’intéresse donc aux outils émergents et à développer qui facilitent l’articulation des échelles et phases de projets, articulation identifiée comme élément indispensable de la cohérence du projet urbain. Cette articulation est identifiée comme cruciale pour atteindre une certaine cohérence urbaine car elle révèle les interactions des interventions opérationnelles les unes sur les autres, et permet d’évaluer leur degré de cohérence avec la planification globale. Cette question revêt un caractère particulier à Saint-Etienne car le territoire cumule les projets relevant d’acteurs multiples. La recherche sous forme de Convention Industrielle de Formation par la Recherche est l'occasion de tester l'élaboration d'un outil de lisibilité et mise en cohérence du projet urbain stéphanois appelé «Atlas du projet urbain» au sein du pôle urbanisme et développement de la ville elle-même et d'un processus de construction partenariale du projet en devenir : "Saint-Etienne horizon 2025". / In a context of urban transformations, emergence of new process such as globalization and "métropolisation" and increase in the number of actors taking place on territories, the question about the consistency of spaces and actions which are led inside, settles there more and more frequently. The urban project appearing as the inescapable tool of the contemporary city, this reflection asserts the hypothesis that the consistency of the global urban project lies in the joint of the projects concerning the various essential scales from the territory.    One of the objectives of the research is to measure the impact of our uncertainty contemporary context on the planning through the urban project notion and the method of projects development. The reflection is thus interested in emerging tools which facilitates the joint of scales and projects steps, joint identified as essential element in the urban project coherence. This joint is crucial to reach some urban coherence because it brings to light the interactions of the operational interventions together, and allows to estimate their coherence degree with the global planning.   This question has a particular character in Saint-Etienne because the territory combines projects coming within several actors. The research in the form of Industrial Agreement of Training by the Research is the opportunity to test the development of a legibility tool and the coherence of the urban project of Saint Etienne called " Atlas of the urban project " within the town planning and development pole of this city which is Saint Etienne.
17

Cohérence et relations de travail / Consistency in labor law

Lam, Hélène 15 May 2013 (has links)
L'originalité de la cohérence en droit du travail tient à la variation de sa densité en fonction du degré de liberté de consentement exprimé ou du comportement adopté, qui détermine le caractère légitime et raisonnable de l'attente de cocontractant à son respect. Quand l'employeur est tenu à une réelle cohérence, le salarié se voit lui, de par sa position subordonnée, reconnaitre un droit à la contradiction. S'il est compréhensible que la subordination puisse atténuer l'effet obligatoire du comportement il n'est pas opportun pour la stabilité contractuelle, que le salarié puisse se délier par son comportement de certaines de ses obligations. Le devoir de cohérence souffre aujourd'hui d'une existence seulement implicite, fondée à tort, sur la bonne foi ou l'abus et empêchant une prévisibilité des sanctions des contradictions, tant procédurales qu'au fond. La consécration d'un principe général de cohérence en droit du travail permettrait que le salarié, trop souvent autorisé à se contredire, et l'employeur, à qui quelques contradictions sont encore permises, voient leurs comportements encadré afin de renforcer la confiance mutuelle nécessaire à la pérennité de la relation de travail. / The originality of consistency in labor law is the graduation of its density with the degree of freedom of consent (behavior adopted, which determines the legitimacy and reasonableness of the expectation of the other party to respect it. When the employer is obliged to a real consistency, the employee himself, by his subordinate position, is recognized right to contradiction. While it is understandable that the subordination can attenuate the binding effect of employee' behavior, it is not suitable for the stability of contract that the employee could, by its behavior, get out of its obligations. The duty of consistency today suffers from an only implicit existence, wrongly based on good faith and breach of law and preventing predictability of contradiction sanctions, both procedural and basis. The consecration of a general principle of coherence in labor law would be beneficial to both the employee, who is too often authorized to contradict, and the employer, who is still allowed to some contradictions, and would be a Ham strengthening mutual confidence, in the common goal of sustainability of the labor relationship.
18

Modélisation d'Entreprise : Proposition d'une démarche de construction et de validation de modèles réalisant la cohérence des systèmes de l'entreprise / Enterprise Modelling : Proposing an approach that builds and validates models realizing enterprise systems coherency

Fathallah, Abir 16 December 2011 (has links)
L’application efficace d’un modèle conduit à visualiser les processus de l’entreprise, à simuler leur fonctionnement et à mettre en place des actions pour améliorer leurs performances. Pour chacun des processus clés de l’entreprise une multitude de modèle est disponible. Nous proposons une méthode de modélisation unique qui permet d’augmenter la compatibilité de différents modèles entre eux et d’améliorer la cohérence de l’entreprise. La première étape de notre méthode de modélisation est de lister les primitives de chaque modèle et de donner une définition claire de chacune de ces primitives. La deuxième étape est l’écriture de la grammaire du modèle. Les règles de modélisation permettent, en effet, d’arranger les primitives selon un certain ordre et d’obtenir un modèle qui a du sens. La troisième étape est la vérification de la validité du modèle. Nous évaluons les performances du modèle par rapport aux services qu’il rend à ses environnants tels que le modélisateur, les utilisateurs ou le système réel. Nous déterminons, par une analyse fonctionnelle, la liste des fonctions à vérifier par le modèle pour que ses services soient atteints. Une étude théorique permet d’appliquer cette méthode de modélisation sur trois des processus inter fonctionnels de l’entreprise : le processus de Supply Chain Management (SCM), le processus de Product Lifecycle Management (PLM) et le processus de Customer Relationship Management (CRM). Nous avons ciblé ces trois processus pour avoir une représentation des quatre sous-systèmes de l’entreprise : le sous-système de Décision (représenté par les finalités de chaque processus), le sous-système Opérant (représenté essentiellement par le processus de SCM), le sous-système d’Information (représenté essentiellement par le processus de PLM) et le sous-système de Connaissances (représenté par les connaissances sur les processus). Les résultats obtenus sont liés au degré de maturité des modèles. Si le processus dispose de plusieurs types de modèles, notre méthode de modélisation permet de clarifier les objectifs de modélisation et d’orienter le choix du manager vers le modèle qui permet de les atteindre. Si le processus dispose de peu de modèles, notre méthode permet de proposer un modèle représentant les étapes du processus global, ses ressources, ses acteurs et les flux échangés. Dans la pratique, toute entreprise industrielle est organisée autour d’un processus qui devient le processus central dont les objectifs sont primordiaux à atteindre, mais cela n’empêche pas les autres processus d’être visibles. L’une des exigences est de conserver la cohérence de toute l’entreprise. Nous définissons la cohérence par deux facteurs : l’unité d’objectif et la compatibilité entre les flux d’information et de connaissances dans l’entreprise. Les conditions de cohérence sont appliquées dans le cas d’une entreprise industrielle sur les modèles de trois processus : le SCM, le PLM et le CRM. Les gains organisationnels sont de permettre une vision globale des étapes et des ressources nécessaires à chaque processus, de distinguer les interfaces et les échanges d’informations entre processus et de capitaliser les connaissances sur la construction, l’utilisation et l’amélioration de modèles. / Enterprise Managers have two important objectives: anticipating the enterprise evolution and mastering its transformation. As a consequence, different process models are available in research papers. But it is difficult to choose between available models and prove that the selected model can improve the enterprise performances. We propose a unified modelling methodology enhancing the models suitability and preserving the enterprise coherency. The first step of our methodology is to obtain a components list for each studied model and to provide a clear definition for each component. The second step is to clarify the syntactic rules that allow building the model. The model components have to be arranged according to a specific order to form a meaningful model. Process models validation is based on a Functional Analysis approach that acts as a guide in building process models. We focus our theoretical study on three processes: the Supply Chain Management (SCM), the Product Lifecycle Management (PLM) and the Customer Relationship Management (CRM). The four enterprise sub-systems are represented: The Decision Subsystem (through the finalities of each process), the Operations Sub-system (which operations are depicted in the SCM process), the Information Sub-system (represented by the information flow in the PLM process) and the Knowledge Sub-system (the knowledge flow in each processes is identified). The result of using our modelling methodology depends of the maturity of the models. If the process possesses different types of models, our methodology lists all the possible modelling objectives which facilitate the manager choice. If the process has few models, our methodology permits building a model depicting the process steps, its resources, its actors and the exchanged flows. The results of this theoretical study are evaluating existing SCM models, building new PLM models and sorting CRM models according to their aim into separate categories. On the field, the enterprise organisation is focused on one central process (such as the SCM, the PLM or the CRM process), but the other processes are clearly visible. The enterprise managers have more than one model to master. The major constraint is to preserve the enterprise coherency. The coherency is obtained through the alignment of the models’ objectives and the compatibility between information and knowledge flows. These two coherency factors are realised in all the phases of the model lifecycle: building the model, initializing it in the enterprise, making it fully operational and improving it. Applied with an industrial partner, our coherency conditions bring considerable gains: it provides a detailed view of three important processes in the enterprise (the SCM, the PLM and the CRM), it identifies the interfaces and the information exchange between processes and it allows capitalising the knowledge on building, using and improving models. Our research subject focused on building and validating process models and enhancing coherency conditions leads to numerous perspectives. The future developments are to apply the modelling methodology on other enterprise processes and to develop a Knowledge System realising models coherency.
19

Cohérence quantique et superfluidité d'un gaz d'excitons piégés / Quantum coherence and superfluidity of a trapped excitons gas

Anankine, Romain 16 June 2017 (has links)
Les excitons semiconducteurs sont des quasi-particules bosoniques composées d’un électron et d’un trou appariés par attraction coulombienne. Ils peuvent subir une condensation de Bose-Einstein dont l’originalité réside dans le fait que les excitons participant au condensat se distribuent de façon cohérente entre quatre états de « spin » : les deux états de plus basse énergie qui sont « noirs » puisqu’ils ne sont pas couplés à la lumière, et les deux états « brillants », à plus haute énergie, permettant de voir les signatures quantiques via une émission cohérente de photons. La condensation des excitons doit donc conduire à une occupation macroscopique des états noirs quand la température est inférieure à 1 K, et a été expérimentalement démontrée en 2015 dans la thèse de M. Beian. Cette thèse montre, cette fois-ci, la participation des excitons brillants à la condensation de Bose-Einstein. En étudiant un gaz bi-dimensionnel d’excitons confinés dans un piège électrostatique, nous montrons, dans le régime dilué, qu’émerge un ordre à longue portée d’origine quantique, avec un accroissement de la cohérence temporelle de la photoluminescence émise par les excitons brillants, en dessous d’une température critique commune d’environ 1 K. La présence de vortex quantiques, signalés par des défauts de densité et par l’apparition de singularités de phase dans les figures d’interférences spatiales, apporte la preuve que 85% des excitons participent à la formation d’un superfluide à quatre composantes, avec une population macroscopique d’excitons noirs couplée de façon cohérente à une fraction d’excitons brillants condensés. / Semiconductor excitons are bosonic quasi-particles compound of an electron and a hole bound by Coulomb attraction. They can undergo Bose-Einstein condensation in a very original fashion: excitons are distributed among four "spin" states. The lowest energy states are "dark" because optically inactive while at a higher energy, two "bright" states are coupled to the photon field. Below sub-kelvin temperatures, condensation of excitons leads to a macroscopic population of the dark states, as demonstrated in M. Beian's thesis in 2015. This dark condensate is coherently coupled with a small fraction of bright excitons whose their weak photoluminescence emitted allows to probe signatures for quantum coherence. In this thesis, we show the contribution of bright excitons to the Bose-Einstein condensation. We study a 2D dilute gas of excitons confined in a electrostatic trap where we reveal, below a critical temperature of about 1 K, a quantum long-range order with an increased temporal coherence of the photoluminescence emitted by bright excitons. The appearance of quantised vortices, signalled by density defects and phase singularities in spatial interferences patterns, gives us the demonstration that 85% of the trapped excitons participate in the formation of a four-component superfluid where a macroscopic population of dark excitons is coherently coupled with a fraction of condensed bright excitons.
20

Association cohérente de données dans les systèmes temps réel à base de composants - Application aux logiciels spatiaux / Formal models for technical specification of flying softwares

Pontisso, Nadège 16 December 2009 (has links)
Les architectures distribuées des systèmes embarqués sont souvent décrites sous la forme de composants concurrents communiquant entre eux. De tels systèmes sont à la fois orientés flot de données pour leur description, et dirigés par le temps pour leur exécution. Cette thèse s’inscrit dans cette problématique et se concentre sur le contrôle de la compatibilité temporelle d’un ensemble de données interdépendantes utilisées par les composants du système. L’architecture d’un système modélisé par composants forme un graphe où plusieurs chemins peuvent relier deux composants, avec des caractéristiques temporelles hétérogènes, ce qui induit des temps de parcours disparates. Il est alors important que ces flots d’information soient assemblés de façon cohérente sur le composant destinataire, c’est-à-dire de telle manière que le composant utilise en entrée des données dépendant (directement ou indirectement) du même pas d’exécution du composant à l’origine de ces flots multiples. Dans un premier temps, ce principe d’association cohérente de données est identifié et formalisé. Une méthodologie est proposée afin de détecter, dans un graphe de composants, les configurations pouvant poser des problèmes d’association de données. Dans un deuxième temps, différentes approches sont détaillées afin de gérer l’association cohérente des données dans des systèmes périodiques sans supposer de propriétés strictes sur l’ordonnancement des composants. Dans les systèmes où les composants partagent la même période et où les communications intra-périodiques sont interdites, l’association des données est gérée par un mécanisme de files permettant de rééquilibrer les temps de parcours des données sur les différents chemins. Dans le cas où les composants sont de périodes diverses, un mécanisme d’estampillage des données est utilisé afin de mémoriser les dépendances entre données. Associé à l’utilisation de files, cet estampillage permet aux composants de sélectionner, à chacune de leurs phases d’activation, des ensembles de données cohérents choisis parmi les données à leur disposition. La notion d’association cohérente est ensuite relâchée, permettant une utilisation de données approximativement cohérentes. Des files filtrantes, n’enregistrant qu’une donnée sur un certain nombre de données reçues, permettent de réduire la taille des files nécessaires. Par ailleurs, du fait de la liberté du modèle d’exécution choisi, il existe des situations où il est impossible de garantir la vivacité de l’association cohérente des données. D’autre part, une architecture particulière peut générer des contraintes de cohérence conflictuelles et aboutir à une impossibilité de gestion de la cohérence. Pour terminer, les résultats de ces travaux sont appliqués sur le logiciel applicatif d’un satellite d’observation terrestre détectant des points chauds. / Distributed real time architecture of an embedded system is often described as a set of communicating components. Such a system is both data flow (for its description) and time-triggered (for its execution). This thesis fits in with these problematics and focuses on the control of the time compatibility of a set of interdependent data used by the components of the system. The architecture of a component-based system forms a graph of communicating components, where more than one path can link two components. These paths may have different timing characteristics, so information which transits on these paths takes various time to reach the final component. However, the flows of information need to be adequately matched, so that the final component uses inputs which all (directly or indirectly) depend on the same production step of the initial component. We call this property consistent data matching. The data matching property is defined and formalized. A methodology is proposed to detect, in a component graph, the architecture configurations that have to be analyzed. Several approaches are developed to manage data matching in periodic systems, without considering strict properties on the system scheduling. First, we consider systems composed by components sharing the same period and where intra-periodic communications are forbidden. Data matching is managed using queues that allows to balance the data transit times through the several paths. Then, we study systems where components have independent periods. Queues are also used and data timestamping is added to record data dependencies. Thus, a component is able, for each of its activation steps, to select consistent data sets according to data dependencies among the available input data. Data matching consistency is relaxed to allow the use of approximately consistent data sets. We use filtering queues which record only one data among a given number they receive. Their use allows to reduce the necessary queue size. Due to the loose execution model constraints, some situations exist where data matching liveliness is not guaranteed. Moreover, particular system architectures generate conflictual constraints and lead to an impossible data matching management. The thesis results are applied on the software of an earth observation satellite constellation, Fuego, which detects fires or eruptions.

Page generated in 0.0958 seconds