• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 201
  • 43
  • 2
  • Tagged with
  • 722
  • 722
  • 334
  • 329
  • 196
  • 174
  • 144
  • 126
  • 114
  • 113
  • 104
  • 88
  • 83
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Real-time scheduling for energy haversting embedded systems / Gestion de l'énergie renouvelable et ordonnancement temps réel dans les systèmes embarqués

Chandarli, Younès 02 December 2014 (has links)
Dans cette thèse nous nous intéressons à la problématique de l'ordonnancement temps réel à priorité fixe des systèmes embarqués récupérant leur énergie de l'environnement. Ces derniers collectent l'énergie ambiante de l'environnement et la stockent dans un réservoir d'énergie afin d'alimenter un appareil électronique. Cette technologie est utilisée dans les petits systèmes embarqués qui nécessitent une longue autonomie. Les réseaux de capteurs et les implants médicaux sont des applications typiques de cette technologie. La majorité des systèmes qui opèrent avec cette technologie doivent exécuter des tâches récurrentes dans un temps imparti. Ainsi, ces systèmes sont soumis à des contraintes dites temps réel où le respect des contraintes temporelles est aussi important que l'exactitude des résultats. Cette thèse traite l'ordonnancement préemptif à priorité fixe de ce genre de systèmes sur des plateformes monoprocesseur. La problématique ici est de trouver des algorithmes d'ordonnancement performants ainsi que des conditions d'ordonnançabilité qui vérifient l'ordonnançabilité d'un système donné dans une configuration d'énergie donnée. La première contribution de cette thèse est la proposition de l'algorithme PFPasap. Il s'agit d'une adaptation de l'ordonnancement préemptif classique à priorité fixe aux contraintes énergétiques. Cela consiste à exécuter les tâches dès que l'énergie est suffisante pour exécuter au moins une unité de temps et à seulement recharger dans le cas échéant. Les périodes de rechargement sont aussi longues que nécessaire pour pouvoir exécuter une seule unité de temps. On prouve que PFPasap est optimal mais uniquement dans le cas des systèmes dits non-concrets où la date de la première activation des tâches et le niveau initial du réservoir d'énergie ne sont connus qu'au moment de l'exécution, et quand toutes les tâches consomment plus d'énergie pendant leur exécution que le système n'en collecte. Une condition d'ordonnançabilité nécessaire et suffisante pour ce type de systèmes est également proposée. Malheureusement, si l'on relâche l'hypothèse sur le profil de consommation d'énergie des tâches, en considérant des tâches qui consomment plus que le rechargement et d'autres qui consomment moins, l'algorithme PFPasap n'est plus optimal et l'activation synchrone n'est plus le pire scénario ce qui rend la condition d'ordonnançabilité précédemment citée seulement nécessaire. Pour cela, nous proposons de borner le pire temps de réponse des tâches afin de construire des conditions suffisantes. Concernant l'optimalité, nous explorons différentes idées dans le but de construire un algorithme optimal en considérant tous les types de systèmes de tâches et tous les profils de consommation d'énergie. Nous montrons aussi que la plupart des idées intuitives n'aboutissant pas à des algorithmes optimaux. Dans le but de mieux comprendre notre problématique, nous proposons d'explorer les solutions proposées pour des problématiques similaires, en particulier celles où le retardement des exécutions est parfois nécessaire pour respecter certaines contraintes. L'ordonnancement avec contraintes thermiques est l'une de ces problématiques. Cette dernière consiste à exécuter les tâches de tel sorte qu'une certaine température maximale n'est jamais atteinte. Cela passe par la suspension des exécutions de temps en temps pour rajouter des temps de refroidissement afin d'éviter que la température maximale ne soit atteinte. Comme première étape, nous proposons d'adapter les solutions proposées pour les systèmes à énergie renouvelable aux systèmes à contraintes thermiques. Ainsi, nous adaptons l'algorithme PFPasap afin que la contrainte thermique soit respectée. Nous proposons également une analyse d'ordonnançabilité basée sur des bornes du pire temps de réponse des tâches. Pour terminer, nous présentons YARTISS : l'outil de simulation développé pendant cette thèse pour évaluer les résultats théoriques / In this thesis, we are interested in the real-time fixed-priority scheduling problem of energy-harvesting systems. An energy-harvesting system is a system that can collect the energy from the environment in order to store it in a storage device and then to use it to supply an electronic device. This technology is used in small embedded systems that are required to run autonomously for a very long lifespan. Wireless sensor networks and medical implants are typical applications of this technology. Moreover, most of these devices have to execute many recurrent tasks within a limited time. Thus, these devices are subject to real-time constraints where the correctness of the system depends not only on the correctness of the results but also on the time in which they are delivered. This thesis focuses on the preemptive fixed-task-priority real-time scheduling for such systems in monoprocessor platforms. The problematic here is to find efficient scheduling algorithms and schedulability conditions that check the schedulability of a given task set in a given energy configuration. The first result of this thesis is the proposition of the PFPasap scheduling algorithm. It is an adaptation of the classical fixed-task-priority scheduling to the energy-harvesting context. It consists of executing tasks as soon as possible whenever the energy is sufficient to execute at least one time unit and replenishes otherwise. The replenishment periods are as long as needed to execute one time unit. We prove that PFPasap is optimal but only in the case of non-concrete systems where the first release time of tasks and the initial energy storage unit level are known only at run-time and where all the tasks consume more energy than the replenishment during execution times. A sufficient and necessary schedulability condition for such systems is also proposed. Unfortunately, when we relax the assumption of tasks energy consumption profile, by considering both tasks that consume more energy than the replenishment and the ones that consume less than the replenishment, PFPasap is no longer optimal and the worst-case scenario is no longer the synchronous release of all the tasks, which makes the precedent schedulability test only necessary. To cope with this limitation, we propose to upper bound tasks worst-case response time in order to build sufficient schedulability conditions instead of exact ones. Regarding algorithms optimality, we explore different ideas in order to build an optimal algorithm for the general model of fixed-task-priority tasks by considering all types of task sets and energy consumption profiles. We show through some counter examples the difficulty of finding such an algorithm and we show that most of intuitive scheduling algorithms are not optimal. After that, we discuss the possibility of finding such an algorithm. In order to better understand the scheduling problematic of fixed-priority scheduling for energy-harvesting systems, we also try to explore the solutions of similar scheduling problematics, especially the ones that delay executions in order to guarantee some requirements. The thermal-aware scheduling is one of these problematics. It consists of executing tasks such that a maximum temperature is never exceeded. This may lead to introduce additional idle times to cool down the system in order to prevent reaching the maximum temperature. As a first step, we propose in this thesis to adapt the solutions proposed for energy-harvesting systems to the thermal-aware model. Thus, we adapt the PFPasap algorithm to respect the thermal constraints and we propose a sufficient schedulability analysis based on worst-case response time upper bounds. Finally, we present YARTISS: the simulation tool used to evaluate the theoretical results presented in this dissertation
152

Apport de la mesure en continu pour la gestion de la qualité des effluents de temps de pluie en réseau d'assainissement / Contribution of continuous turbidity measurements to the management of effluent quality in sewer systems during wet weather

Lacour, Céline 03 November 2009 (has links)
L’objectif de ce travail de thèse est de démontrer qu’il est possible d’utiliser des mesures en continu de turbidité pour suivre la pollution particulaire dans les réseaux d’assainissement et d’évaluer l’apport de ces mesures pour la gestion des réseaux en temps réel ou en temps différé. Dans une première partie, la mise en oeuvre de la mesure en continu de turbidité est décrite. Les éléments principaux contribuant à l’incertitude sont identifiés et des méthodes de calcul des incertitudes adaptées sont proposées. Les questions de fiabilité et de représentativité de la mesure de turbidité sont traitées et aboutissent à des solutions d’installation des sondes in situ et à des protocoles de suivi et de maintenance. Enfin, les perturbations affectant le signal sont quantifiées et des méthodes de filtrage sont comparées. La deuxième partie est consacrée à l’analyse du comportement de la turbidité à partir des données acquises sur deux sites du réseau unitaire parisien en 2006. 80 événements pluvieux sont décrits par leurs concentrations moyennes et maximales et par leurs courbes de distribution masse/volume. Ces critères ont été intégrés dans des typologies qui ont ensuite été mises en relation avec des paramètres de débit et de durée de temps sec ayant précédé l’événement. Cette analyse permet de caractériser la variabilité de façon détaillée. La variabilité de la décantabilité des particules a été également étudiée à partir de données provenant de bassins de décantation. Enfin, deux applications sont proposées. La première est une évaluation en temps différé de flux de polluants. Deux modes d’exploitation de prélèvements d’échantillons réalisés sur un nombre fixé d’événements pluvieux sont comparés. L’un n’utilise que les résultats d’analyses des échantillons au laboratoire pour établir une concentration moyenne. L’autre utilise les prélèvements pour établir des relations entre turbidité et paramètres polluants, ensuite appliquées à des mesures en continu de turbidité. Une seconde série d’applications porte sur l’utilisation de la turbidité pour la gestion en temps réel des flux. Deux configurations-types génériques ont été étudiées. Pour chacune, une stratégie utilisant seulement le débit est comparée à une stratégie utilisant turbidité et débit. Les simulations sont effectuées pour de larges gammes de paramétrage des configurations et avec des données réelles de débit et de turbidité en entrée du système. Pour les applications d’évaluation de flux comme de gestion en temps réel, le gain apporté par la turbidité est chiffré et s’avère significatif / The purpose of this thesis is to prove the usefulness of continuous turbidity measurements for the monitoring of particulate pollution in combined sewer systems, and assess the contribution of these measurements to real-time and lagged control of sewer systems. In the first part, the implementation of continuous turbidity measurements is described. The main uncertainties components are identified and appropriate calculation methods for the uncertainties are proposed. The issues of reliability and representativeness of turbidity measurements are treated and lead to solutions for the in situ installation of turbidimeters and the definition of proper monitoring and maintenance protocols. Finally, the noise which disturbs turbidity measurements is quantified, and filtering methods are compared. The second part is devoted to the analysis of turbidity behaviour, drawing from data monitored on two sites in the combined sewer of Paris in 2006. Eighty rain events are described by their mean and maximum concentrations and by their mass/volume distribution curves. These criteria are used to define typologies, which are then linked to flow parameters and to the antecedent dry weather period of the event. This analysis leads to a detailed description of variability. The variability of the settling characteristics of the particles was also studied using data coming from sedimentation tank. Finally two applications are developed. The first is an assessment of lagged pollutant loads. Two methods for exploiting samples taken during a fixed number of rain events are compared. The first method only uses the results of sample analysis to establish an average concentration. The second method uses samples to calibrate relationships between turbidity and pollutant parameters, which are then applied to continuous turbidity measurements. Another group of applications deals with the use of turbidity for real time control of pollutants flows. Two kinds of configuration were studied. For each one, a strategy only using flow data is compared with a strategy using turbidity and flow data. Simulations are performed for a wide range of configuration parameters with real flow and turbidity data at the entrance of the system. For the application of assessment of pollutants flow as well as for real time control applications, the improvement brought by turbidity was assessed and proved to be significant
153

Charged particle therapy, ion range verification, prompt radiation / Mesures physiques pour la vérification du parcours des ions en hadronthérapie

Testa, Mauro 14 October 2010 (has links)
Cette thèse porte sur les mesures expérimentales des γ-prompts créés lors de la fragmentation du faisceau d'ions carbone en hadronthérapie. Deux expériences ont été effectuées aux laboratoires GANIL et GSI avec des ions 12C6+ de 95MeV/u et 305MeV/u irradiant une cible d'eau ou de PMMA. Dans les deux expériences une nette corrélation a été obtenue entre le parcours des ions carbone et le profil longitudinal des γ- prompts. Une des plus grandes difficultés de ces mesures vient de la discrimination entre le signal des γ-prompts (qui est corrélé avec le parcours des ions) et un important bruit de fond dû aux neutrons (non corrélé au parcours). Deux techniques sont employées pour effectuer la discrimination entre γ et neutrons: le temps de vol (TDV) et la discrimination par forme de signal (DFS). Le TDV a permis de démontrer la corrélation entre la production de γ-prompts et le parcours des ions. La DFS a fourni des informations précieuses pour la compréhension des caractéristiques des spectres en TDV. Dans ce travail on a démontré qu'un système de détection de γ-prompt collimaté, basé sur la technique du temps de vol, peut permettre une vérification en temps réel de la position du Pic de Bragg en conditions cliniques. Dans la dernière partie de la thèse, un travail de simulation a été effectué à l'aide du code de simulation Geant4 pour évaluer l'influence des principaux paramètres du design d'un dispositif de multi-détecteurs et multicollimateurs sur la résolution spatiale et l'efficacité atteignable par une Camera γ-Prompt. Plusieurs configurations géométriques ont été étudiées de façon systématique et les principales contraintes du design sont analysées. / This PhD thesis reports on the experimental investigation of the prompt photons created during the fragmentation of the carbon beam used in particle therapy. Two series of experiments have been performed at the GANIL and GSI facilities with 95 MeV/u and 305 MeV/u 12C6+ ion beams stopped in PMMA and water phantoms. In both experiments a clear correlation was obtained between the C-ion range and the prompt photon profile. A major issue of these measurements is the discrimination between the prompt photon signal (which is correlated with the ion path) and a vast neutron background uncorrelated with the Bragg-Peak position. Two techniques are employed to allow for this photon-neutron discrimination: the time-of-flight (TOF) and the pulse-shape-discrimination (PSD). The TOF technique allowed demonstrating the correlation of the prompt photon production and the primary ion path while the PSD technique brought great insights to better understand the photon and neutron contribution in TOF spectra. In this work we demonstrated that a collimated set-up detecting prompt photons by means of TOF measurements, could allow real-time control of the longitudinal position of the Bragg-peak under clinical conditions. In the second part of the PhD thesis a simulation study was performed with Geant4 Monte Carlo code to assess the influence of the main design parameters on the efficiency and spatial resolution achievable with a multidetector and multi-collimated Prompt Gamma Camera. Several geometrical configurations for both collimators and stack of detectors have been systematically studied and the considerations on the main design constraints are reported.
154

Implantation dans le matériel de fonctionnalités temps-réel dans une caméra intelligente ultralégère spécialisée pour la prise de vue aérienne / Implementation of real-time functionalities in in the hardware of ultra-light intelligent camera specialized for the aerial imaging

Audi, Ahmad 14 December 2017 (has links)
Au cours des dernières années, les drones civils sont devenus un outil intéressant dans la photographie aérienne et dans les travaux de photogrammétrie. Cela a poussé le LOEMI (Laboratoire d’Opto-Electronique, Métrologie et Instrumentation) de l'IGN (Institut National de l'Information Géographique et Forestière) de mettre au point une nouvelle caméra aérienne mieux adaptée pour l'exploitation photogrammétrique et métrologiques des images que les caméras grand public. Cette caméra est composée essentiellement d'un capteur CMOS ``global-shutter'', d'une centrale inertielle IMU, et d'un système sur puce (FPGA + 2 CPUs) pour la gestion de l'acquisition des images. Ce SoC/FPGA ouvre la porte à l'implémentation temps-réel des algorithmes de traitement d'image. Parmi les travaux futurs de l'IGN, on peut distinguer certaines applications qui nécessitent l'acquisition des images aériennes avec un temps d'exposition long, comme par exemple les prises de vue aériennes en bande spectrale étroite et les prises de vue aériennes de nuit. Ce type de prises de vue manifeste un flou de bougé dans les images dû aux mouvements erratiques du drone. Cette thèse consiste en l'implémentation dans la caméra légère de l'IGN d'un algorithme qui permet de remédier ce problème de flou de bougé. La première partie de ce travail a été consacrée au développement de la méthode qui consiste à acquérir plusieurs images avec un temps de pose court, puis utiliser un algorithme de traitement d'image afin de générer une image empilée finale avec l'équivalent d'un temps de pose long. Les paramètres des orientations correctes pour le ré-échantillonnage des images sont obtenus par l'estimation de la transformation géométrique entre la première image et la nième image à partir des points d'intérêts détectés par FAST dans la première image et les points homologues obtenus par corrélation dans les autres images accélérées par les capteurs inertiels intégrés à la caméra. Afin d'accélérer le traitement de calcul de notre algorithme, certaines phases sont accélérées en les implémentant dans le matériel (SoC/FPGA).Les résultats obtenus sur des jeux de tests acquis avec un drone type Copter 1B UAV et la caméra ultra-légère de l'IGN montrent que l'image finale empilée ne présente pas un flou de bougé. Les résultats de temps des différentes phases de l'algorithme montrent aussi que l'exécution de notre algorithme a un temps quasi-nulle. Un des sous-produits intéressants de ces travaux est la ré-étalonnage des capteurs IMU / In the recent years, the civilian UAVs (Unmanned Aerial Vehicles) have become an interesting tool in aerial photography and in photogrammetry. This led the LOEMI (Laboratoire d'Opto-électronique, de Métrologie et d'Instrumentation) team of IGN (Institut National de l'Information Géographique) to design an light-weight digital camera better adapted for exploiting photogrammetry and metrology applications than consumer cameras. This camera consists essentially of a CMOS ``global shutter'' sensor, an inertial measurement unit IMU, and a system on chip (FPGA + 2 CPUs) used originally to acquire image data from the sensor. This SoC/FPGA-based camera opens the door to implement in hardware some real-time image processing algorithms. Night-time surveys and narrow spectral band with imagery are one of the next applications targeted by IGN, this type of applications needs a long-exposure time imagery that usually exhibits a motion blur due to erratic movements of the UAV. This thesis consists in the implementation on the light-weight IGN camera of an alogirithm which makes it possible to remedy this problem of motion blur. The first part of this work was devoted to the development of the method which consists in acquiring several images with a short exposure time and then using an image processing algorithm in order to generate a stacked image with the equivalent of a long-exposure time. To obtain the correct parameters for the resampling of images, the presented method accurately estimates the geometrical relation between the first and the nth image, taking into account the internal parameters and thedistortion of the camera. Features are detected in the first image by the FAST detector, than homologous points on other images are obtained by template matching aided by the IMU sensors. In order to speed up the processing of our algorithm, some phases are accelerated by implementing them in the hardware (SoC / FPGA).The results obtained on real surveys show that the final stacked image does not present a motion blur. The time results of the different phases of the algorithm also show that the execution of the algorithm has a quasi-zero time. One of the interesting byproducts of this work is the recalibration of the IMU sensors
155

Synthèse incrémentale de la parole à partir du texte / Incremental text-to-speech synthesis

Pouget, Maël 23 June 2017 (has links)
Ce travail de thèse porte sur un nouveau paradigme pour la synthèse de la parole à partir du texte, à savoir la synthèse incrémentale. L'objectif est de délivrer la parole de synthèse au fur et à mesure de la saisie du texte par l'utilisateur, contrairement aux systèmes classiques pour lesquels la synthèse est déclenchée après la saisie d'une ou plusieurs phrases. L'application principale visée est l'aide aux personnes présentant un trouble sévère de la communication orale, et communiquant principalement à l'aide d'un synthétiseur vocal. Un synthétiseur vocal incrémental permettrait de fluidifier une conversation en limitant le temps que passe l'interlocuteur à attendre la fin de la saisie de la phrase à synthétiser. Un des défi que pose ce paradigme est la synthèse d'un mot ou d'un groupe de mot avec une qualité segmentale et prosodique acceptable alors que la phrase qui le contient n'est que partiellement connue au moment de la synthèse. Pour ce faire, nous proposons différentes adaptations des deux principaux modules d'un système de synthèse de parole à partir du texte : le module de traitement automatique de la langue naturelle (TAL) et le module de synthèse sonore. Pour le TAL en synthèse incrémentale, nous nous sommes intéressé à l'analyse morpho-syntaxique, qui est une étape décisive pour la phonétisation et la détermination de la prosodie cible. Nous décrivons un algorithme d'analyse morpho-syntaxique dit "à latence adaptative". Ce dernier estime en ligne si une classe lexicale (estimée à l'aide d'un analyseur morpho-syntaxique standard basé sur l'approche n-gram), est susceptible de changer après l'ajout par l'utilisateur d'un ou plusieurs mots. Si la classe est jugée instable, alors la synthèse sonore est retardée, dans le cas contraire, elle peut s'effectuer sans risque a priori de dégrader de la qualité segmentale et suprasegmentale. Cet algorithme exploite une ensemble d'arbre de décisions binaires dont les paramètres sont estimés par apprentissage automatique sur un large corpus de texte. Cette méthode nous permet de réaliser un étiquetage morpho-syntaxique en contexte incrémental avec une précision de 92,5% pour une latence moyenne de 1,4 mots. Pour la synthèse sonore, nous nous plaçons dans le cadre de la synthèse paramétrique statistique, basée sur les modèles de Markov cachés (Hidden Markov Models, HMM). Nous proposons une méthode de construction de la voix de synthèse (estimation des paramètres de modèles HMM) prenant en compte une éventuelle incertitude sur la valeur de certains descripteurs contextuels qui ne peuvent pas être calculés en synthèse incrémentale (c'est-à-dire ceux qui portent sur les mots qui ne sont pas encore saisis au moment de la synthèse).Nous comparons la méthode proposée à deux autres stratégies décrites dans la littérature. Les résultats des évaluations objectives et perceptives montrent l’intérêt de la méthode proposée pour la langue française. Enfin, nous décrivons un prototype complet qui combine les deux méthodes proposées pour le TAL et la synthèse par HMM incrémentale. Une évaluation perceptive de la pertinence et de la qualité des groupes de mots synthétisés au fur et à mesure de la saisie montre que notre système réalise un compromis acceptable entre réactivité (minimisation du temps entre la saisie d'un mot et sa synthèse) et qualité (segmentale et prosodique) de la parole de synthèse. / In this thesis, we investigate a new paradigm for text-to-speech synthesis (TTS) allowing to deliver synthetic speech while the text is being inputted : incremental text-to-speech synthesis. Contrary to conventional TTS systems, that trigger the synthesis after a whole sentence has been typed down, incremental TTS devices deliver speech in a ``piece-meal'' fashion (i.e. word after word) while aiming at preserving the speech quality achievable by conventional TTS systems.By reducing the waiting time between two speech outputs while maintaining a good speech quality, such a system should improve the quality of the interaction for speech-impaired people using TTS devices to express themselves.The main challenge brought by incremental TTS is the synthesis of a word, or of a group of words, with the same segmental and supra-segmental quality as conventional TTS, but without knowing the end of the sentence to be synthesized. In this thesis, we propose to adapt the two main modules (natural language processing and speech synthesis) of a TTS system to the incremental paradigm.For the natural language processing module, we focused on part-of-speech tagging, which is a key step for phonetization and prosody generation. We propose an ``adaptive latency algorithm'' for part-of-speech tagging, that estimates if the inferred part-of-speech for a given word (based on the n-gram approach) is likely to change when adding one or several words. If the Part-of-speech is considered as likely to change, the synthesis of the word is delayed. In the other case, the word may be synthesized without risking to alter the segmental or supra-segmental quality of the synthetic speech. The proposed method is based on a set of binary decision trees trained over a large corpus of text. We achieve 92.5% precision for the incremental part-of-speech tagging task and a mean delay of 1.4 words.For the speech synthesis module, in the context of HMM-based speech synthesis, we propose a training method that takes into account the uncertainty about contextual features that cannot be computed at synthesis time (namely, contextual features related to the following words). We compare the proposed method to other strategies (baselines) described in the literature. Objective and subjective evaluation show that the proposed method outperforms the baselines for French.Finally, we describe a prototype developed during this thesis implementing the proposed solution for incremental part-of-speech tagging and speech synthesis. A perceptive evaluation of the word grouping derived from the proposed adaptive latency algorithm as well as the segmental quality of the synthetic speech tends to show that our system reaches a good trade-off between reactivity (minimizing the waiting time between the input and the synthesis of a word) and speech quality (both at segmental and supra-segmental levels).
156

Distribution d'une architecture modulaire intégrée dans un contexte hélicoptère

Bérard-Deroche, Émilie 12 December 2017 (has links) (PDF)
Les architectures modulaires intégrées (IMA) sont une évolution majeure de l'architecture des systèmes avioniques. Elles permettent à plusieurs systèmes de se partager des ressources matérielles sans interférer dans leur fonctionnement grâce à un partitionnement spatial (zones mémoires prédéfinies) et temporel (ordonnancement statique) dans les processeurs ainsi qu'une réservation des ressources sur les réseaux empruntés. Ces allocations statiques permettent de vérifier le déterminisme général des différents systèmes: chaque système doit respecter des exigences de bout-en-bout dans une architecture asynchrone. Une étude pire cas permet d'évaluer les situations amenant aux limites du système et de vérifier que les exigences de bouten- bout sont satisfaites dans tous les cas. Les architectures IMA utilisés dans les avions centralisent physiquement des modules de calcul puissants dans des baies avioniques. Dans le cadre d'une étude de cas hélicoptère, ces baies ne sont pas envisageables pour des raisons d'encombrement: des processeurs moins puissants, utilisés à plus de 80%, composent ces architectures. Pour ajouter de nouvelles fonctionnalités ainsi que de nouveaux équipements, le souhait est de distribuer la puissance de traitement sur un plus grand nombre de processeurs dans le cadre d'une architecture globale asynchrone. Deux problématiques fortes ont été mises en avant tout au long de cette thèse. La première est la répartition des fonctions avioniques associée à une contrainte d'ordonnancement hors-ligne sur les différents processeurs. La deuxième est la satisfaction des exigences de communication de bout-en-bout, dépendantes de l'allocation et l'ordonnancement des fonctions ainsi que des latences de communication sur les réseaux. La contribution majeure de cette thèse est la recherche d'un compromis entre la distribution des architectures IMA sur un plus grand nombre de processeurs et la satisfaction des exigences de communication de bout-en-bout. Nous répondons à cet enjeu de la manière suivante: - Nous formalisons dans un premier temps un modèle de partitions communicantes tenant en compte des contraintes d'allocation et d'ordonnancement des partitions d'une part et des contraintes de communication de bout-en-bout entre partitions d'autre part. - Nous présentons dans un deuxième temps une recherche exhaustive des architectures valides. Nous proposons l'allocation successive des fonctions avioniques en considérant au même niveau la problématique d'ordonnancement et la satisfaction des exigences de bout-en-bout avec des latences de communication figées. Cette méthode itérative permet de construire des allocations de partitions partiellement valides. La construction des ordonnancements dans chacun des processeurs est cependant une démarche coûteuse dans le cadre d'une recherche exhaustive. - Nous avons conçu dans un troisième temps une heuristique gloutonne pour réduire l'espace de recherche associé aux ordonnancements. Elle permet de répondre aux enjeux de distribution d'une architecture IMA dans un contexte hélicoptère. - Nous nous intéressons dans un quatrième temps à l'impact des latences de communication de bout-en-bout sur des architectures distribuées données. Nous proposons pour celles-ci les choix de réseaux basés sur les latences de communication admissibles entre les différentes fonctions avioniques. Les méthodes que nous proposons répondent au besoin industriel de l'étude de cas hélicoptère, ainsi qu'à celui de systèmes de plus grande taille.
157

Étude en temps réel des effets cellulaires et moléculaires des champs électromagnétiques radiofréquence environnementaux / Real-time study of cellular and molecular effects of electromagnetic fields

Ruigrok, Hermanus 29 September 2017 (has links)
Durant les quinze dernières années, une attention particulière a été portée aux effets potentiels sur le vivant des champs radiofréquence (RF) des communications sans fil. Malgré l’intensité des efforts de recherche sur les effets biologiques et sanitaires potentiels des RF, nos connaissances en bioélectromagnétisme n’ont pu suivre l’évolution rapide des technologies.[…] La capacité des RF à provoquer un échauffement des tissus est parfaitement caractérisée. Des recommandations et des normes ont été définies afin de protéger les populations des risques associés, sachant qu’aucun échauffement n’est provoqué par l’exposition aux dispositifs de communications sans fil en raison des très faibles niveaux correspondant. Il est donc capital de savoir si l’on peut totalement exclure que des effets non-thermiques des RF de faible niveau existent au niveau moléculaire au sein de la matière vivante. L’objectif de cette thèse est d’évaluer en temps réel et sur cellules vivantes, les effets de l'exposition aux champs radiofréquences (CW, GSM-1800, UMTS, Wi-Fi, WiMax, LTE), soit au niveau moléculaire en ciblant l’activité du canal ionique TRPV1 qui est l’un des thermorécepteurs de notre organisme, soit au niveau cellulaire en étudiant le comportement général de cellules exposées aux RF à l’aide d’une technique dite « sans marquage », l’impédancemétrie. Le suivi de l’activité du canal TRPV1 sous exposition RF a été réalisé à l’aide de la technique du transfert d’énergie en résonance de bioluminescence (BRET), une technique spectroscopique qui permet l’analyse des interactions protéines-protéines ou des changements de conformation des protéines en temps réel et sur cellules vivantes. La mise en place de cette technique a demandé la construction et la caractérisation de sondes BRET ciblant les canaux TRP ainsi que la mise au point d’un dispositif de mesure déporté des spectres de BRET à l’aide d’une fibre optique, afin de pouvoir exposer les échantillons aux champs RF. La conclusion de ce volet de la thèse est que les RF sont capables d’activer le canal TRPV1 en produisant un échauffement diélectrique, mais qu’en absence d’augmentation de la température il n’y a aucun effet des RF sur le niveau d’activité basal du canal TRPV1 ou sur l’efficacité de la Capsaïcine, un agoniste, à activer TRPV1. L’analyse du comportement global de cellules en culture sous exposition RF a été réalisée à l’aide d’un système xCELLigence modifié afin de pouvoir à la fois suivre le comportement cellulaire par impédancemétrie tout en utilisant le réseau d’électrodes des plaques de mesure pour exposer les cellules mises en culture aux RF. À l’aide de ce dispositif, nous avons pu réaliser des expositions de cellules SH-SY5Y avec un DAS de 24 W/Kg sans provoquer d’échauffement dans le milieu de culture ou dans les cellules. Aucun effet des RF sur le comportement de la lignée de neuroblastome SH-SY5Y n’a cependant pu être mis en évidence, que ce soit en absence ou en présence d’une co-stimulation par un agent chimique. La conclusion de cette étude est que dans des conditions où la température reste stable, nous n’avons pas pu mettre en évidence de modification du fonctionnement du vivant que ce soit au niveau moléculaire ou au niveau cellulaire. Les outils développés dans ce travail de thèse ouvrent, de plus, d’importantes perspectives tant dans le domaine du criblage de médicaments candidats à l’aide du BRET spectral, que pour de futures études en bioélectromagnétisme. / The biological and health effects of radiofrequency (RF) electromagnetic fields (EMF) exposure have been very actively studied in the past two decades, mainly triggered by concerns about potential health effects of wireless communication systems. This physical agent is among the most common, fastest-growing environmental factors, triggering concerns in the population, as even a minor effect of EMF exposure on health could have a major public health impact. While the effects of extremely low frequency electromagnetic fields (ELF EMF) on the excitation of nerve and muscle cells have been well-characterized, the only well-described effects of radiofrequency electromagnetic fields (RF EMF) on biological systems are caused by dielectric-relaxation heating. In contrast, “nonthermal” RF EMF effects refer to other potential biological effects that are not caused by temperature elevation of living tissue or cell culture medium. The investigation of such mechanisms has been hampered by the absence of robust, reliable and repeatable effects occurring as a consequence of low-level exposures, for which temperature elevation is minimal. Moreover, no plausible mechanistic hypotheses have been given concerning thermal or nonthermal effects of low-level RF EMF exposures, making difficult to draw conclusions on the basis of available experimental results. Nonetheless, in 2011, the International Agency for Research on Cancer (IARC) classified RF emitted by cell phones as “possibly carcinogenic to humans” (Class 2B). The characterization of nonthermal biological RF EMF effects is therefore of primary importance for setting safety limits since guidelines and standards have so far been set to protect from the known health risks associated only with the thermal effects of RF EMF exposures. The aim of this basic science thesis work is to characterize the effects of environmental RF EMF signals on living matter at the cellular and molecular level. In this work, we took advantage of modern and innovative methods to observe the behavior of living matter under RF EMF exposure in real time at various specific absorption rates (SAR). In particular, we have studied: (i) Specific RF EMF effects on the ionic channel TRPV1, a major thermoreceptor in our body. TRPV1 activation under RF EMF exposure was studied using the bioluminescence resonance energy transfer (BRET) technique. The implementation of this technique called for the construction and characterization of BRET probes targeting TRP channels as well as the development of a device for the remote measurement of BRET spectra, using an optical fiber. The conclusion of this part of the thesis is that RFs are able to activate the TRPV1 channel by producing a dielectric heating but in the absence of temperature increase there is no RF effect on the basal activation state of TRPV1 and no change of capsaicin maximal efficacy to activate TRPV1. (ii) The analysis of the global behavior of cells in culture under RF exposure was carried out using a modified xCELLigence system where the array of electrodes of the measuring plates were also used to expose the cells to RF EMF. Using this device, we were able to perform SH-SY5Y cell exposures with a SAR of 24 W/kg without causing heating in the culture medium or in the cell culture. No effect of RF EMF on the behavior of the neuroblastoma SH-SY5Y line could however be demonstrated, either in the absence or in the presence of a co-stimulation by a chemical agent. The conclusion of this study is that under conditions where the temperature remains stable, we have not been able to demonstrate any changes in the functioning of living cells, ether at the molecular level or at the cellular level. The tools developed in this thesis work offer important prospects both in the field of drug screening using spectral BRET, and pave the ways for future studies in bioelectromagnetics.
158

Architecture et processus de développement permettant la mise à jour dynamique de systèmes embarqués automobiles / Architecture and Development Process for Dynamic Updates within Automotive Embedded Systems

Martorell, Hélène 09 December 2014 (has links)
Dans le contexte automobile actuel, le standard pour les calculateurs enfouis est AUTOSAR. L'un des inconvénients majeurs de cette architecture est son manque de flexibilité. Cependant, les mises à jour et la personnalisation des systèmes embarqués sont de plus en plus, non seulement plébiscités, mais également nécessaires. En effet, la complexité grandissante des systèmes exige à présent de déployer des moyens supplémentaires pour permettre leur maintenance et leur évolution de manière plus aisée. Ainsi, partant de ces constats, ce travail étudie les possibilités de faire des mises à jour dans le contexte d'AUTOSAR. Les modifications nécessaires se retrouvent non seulement dans l'architecture, mais également au sein du processus de développement et des considérations temps-réel. Tous ces aspects sont donc regardés en détails pour permettre les mises à jour partielles dans le cadre du standard AUTOSAR. Cette thèse décrit donc le processus de développement logiciel AUTOSAR et propose certaines améliorations mises en place au cours de ce travail. Un certain nombre de concepts sont également définis, afin d'aménager des espaces d'adaptation logiciels. Ces espaces sont ensuite utilisés pour intégrer des mises à jour partielles dans le calculateur embarqué. Le processus de développement est également modifié pour intégrer ces concepts ainsi que les mécanismes nécessaires à la mise à jour. Les aspects temps-réel concernant la mise à jour partielle dans les systèmes embarqués automobiles sont également traités ici. Un modèle de tâches approprié est mis en place dans le cadre d'AUTOSAR. De plus l'analyse de sensibilité est utilisée spécifiquement pour déterminer la flexibilité disponible dans un système donné. Les aspects d'implémentation sont également détaillés. En particulier, la création de mises à jour dans un contexte donné, la gestion des différentes versions possibles pour une application, l'utilisation et l'écriture dans la mémoire embarquée et enfin, les moyens nécessaires à la prise en compte des aspects de sûreté de fonctionnement. Pour terminer, tous les concepts développés dans ce travail sont appliqués à une preuve de concept reposant sur une application embarquée fournie par Renault. L'approche proposée est donc appliquée de manière pratique. / Currently the standard for embedded ECUs (Electronic Control Unit) in the automotive industry is AUTOSAR. One of the drawbacks of this architecture lies in its lack of flexibility. However, updates and customization of embedded systems are increasingly demanded and necessary. Indeed, systems are more and more complex and therefore require new methods and means to ease maintenance. Thus, from these observations, we study the possibilities for updates and resulting modifications (both on an architectural level and within the development process, and from a real-time point of view) in order to integrate within the AUTOSAR standard partial updates. This PhD thesis describes the software development process in an AUTOSAR context with a number of improvement we designed in this work. We also define concepts that allow to introduce placeholders for further updates within the embedded ECU. The development process has to be subsequently modified for integrating spaces for the updates along with the necessary mechanisms. Real-time problematic regarding partial updates in automotive systems is also considered here. In particular, we deal with sensitivity analysis that helps determine flexibility within the system. A number of implementation aspects are also detailed. In particular, the creation of the updates, versions management, use of embedded memory and dependability. All these concepts are finally applied on a proof of concept using an embedded application from Renault. We present here in details how the proposed approach can be used in practice.
159

Étalonnage automatique des détecteurs pour scanner LabPET II

Jürgensen, Nadia January 2017 (has links)
Depuis une vingtaine d'années, le GRAMS et le CIMS travaillent en collaboration dans le domaine de l'imagerie médicale, plus précisément sur la tomographie d'émission par positrons destinée à la recherche préclinique sur petits animaux. Après le scanner TEP Sherbrooke en 1994 et le LabPET I commercialisé par Advanced Molecular Imaging (AMI) Inc., Gamma Medica Ideas et GE Healthcare au cours des années 2000, l'aspiration vers de meilleures performances est le moteur de la réalisation d'une nouvelle version : le LabPET II. L'augmentation importante du nombre de détecteurs, nécessaire pour atteindre une meilleure résolution spatiale, amène de nouveaux défis autant sur le plan matériel que logiciel. Un des défis est de compenser les disparités en gain des détecteurs à base de photodiodes à avalanche (PDA) qui engendrent des différences intercanaux. Le but de ce projet de maîtrise est de développer et d'implémenter un algorithme capable de corriger ces différences de façon automatisée.
160

Détection d'erreur au plus tôt dans les systèmes temps-réel : une approche basée sur la vérification en ligne / Early error detection for real time applications : an approach using runtime verification

Robert, Thomas 26 June 2009 (has links)
La vérification en ligne de spécifications formelles permet de créer des détecteurs d'erreur dont le pouvoir de détection dépend en grande partie du formalisme vérifié à l'exécution. Plus le formalisme est puissant plus la séparation entre les exécutions correctes et erronées peut être précise. Cependant, l'utilisation des vérifieurs en-ligne dans le but de détecter des erreurs est entravée par deux problèmes récurrents : le coût à l'exécution de ces vérifications, et le flou entourant les propriétés sémantiques exactes des signaux d'erreur ainsi générés. L'objectif de cette thèse est de clarifier les conditions d'utilisation de tels détecteurs dans le cadre d'applications « temps réel » critiques. Dans ce but, nous avons donné l'interprétation formelle de la notion d'erreur comportementale « temps réel». Nous définissions la propriété de détection « au plus tôt » qui permet de d'identifier la classe des détecteurs qui optimisent la latence de détection. Pour illustrer cette classe de détecteurs, nous proposons un prototype qui vérifie un comportement décrit par un automate temporisé. La propriété de détection au plus tôt est atteinte en raisonnant sur l'abstraction temporelle de l'automate et non sur l'automate lui-même. Nos contributions se déclinent dans trois domaines, la formalisation de la détection au plus tôt, sa traduction pour la synthèse de détecteurs d'erreur à partir d'automate temporisés, puis le déploiement concret de ces détecteurs sur une plate-forme de développement temps réel, Xenomai. / Runtime verification of formal specifications provides the means to generate error detectors with detection capabilities depending mostly on the kind of formalism considered. The stronger the formalism is the easier the speration between correct and erroneous execution is. Nevertheless, two recurring issues have to be considered before using such error detection mechanisms. First, the cost, at run-time, of such error detector has to be assessed. Then, we have to ensure that the execution of such detectors has a well defined semantics. This thesis aims at better understanding the conditions of use of such detectors within critical real-time software application. Given formal behavioural specification, we defined the notion of "behavioural error". Then, we identify the class of early detectors that optimize the detection latency between the occurence of such errors and their signalling. The whole generation process has been implemented for specifications provided as timed automata. The prototype achieves early error detection thanks to a preprocessing of the automaton to generate its temporal abstraction. Our contributions are threefold : formalisation of early detection, algorithms for timed automata run-time verification, and prototyping of such detectors on a real-time kernel, Xenomai.

Page generated in 0.0678 seconds