Spelling suggestions: "subject:"tempo réel""
221 |
Formal methods for distributed real-time systems / Méthodes formelles pour les systèmes distribués temps-réelDellabani, Mahieddine 31 October 2018 (has links)
Nowadays, real-time systems are ubiquitous in several application domains.Such an emergence led to an increasing need of performance (resources,availability, concurrency, etc.) and initiated a shift from theuse of single processor based hardware platforms, to large setsof interconnected and distributed computing nodes. This trend introduced the birthof a new family of systems that are intrinsically distributed, namelyemph{Networked Embedded Systems}.Such an evolution stems from the growing complexity of real-time softwareembedded on such platforms (e.g. electronic control in avionicsand automotive domains), and the need to integrate formerly isolated systems so thatthey can cooperate, as well as share resources improving thus functionalitiesand reducing costs.Undoubtedly, the design, implementation and verification of such systems areacknowledged to be very hard tasks since theyare prone to different kinds of factors, such as communication delays, CPU(s)speed or even hardware imprecisions, which increases considerably the complexity ofcoordinating parallel activities.In this thesis, we propose a rigorous design flow intended forbuilding distributed real-time applications.We investigate timed automata based models, with formally defined semantics, in orderto study the behavior of a given system with some imposed timing constraints when deployedin a distributed environment. Particularly, we study emph{(i)} the impact of the communicationdelays by introducing a minimum latency between actions executions and the effectivedate at which actions executions have been decided,and emph{(ii)} the effect of hardware imperfections, more precisely clocks imprecisions,on systems execution by breaking the perfect clocks hypothesis, often adopted duringthe modeling phase. Nevertheless, timed automata formalism is intended to describe a highlevel abstraction of the behavior of a given application.Therefore, we use an intermediate representation ofthe initial application that, besides having say{equivalent} behavior, explicitly expressesimplementation mechanisms, and thus reduces the gap between the modeling and the concreteimplementation. Additionally, we contribute in building such systems by emph{(iii)}proposing a knowledge based optimization method that aims to eliminate unnecessarycomputation time or exchange of messages during the execution.We compare the behavior of each proposed model to the initial high level model and study therelationships between both. Then, we identify and formally characterize the potential problemsresulting from these additional constraints. Furthermore, we propose execution strategies thatallow to preserve some desired properties and reach a say{similar} execution scenario,faithful to the original specifications. / Aujourd'hui, les systèmes temps réel sont omniprésents dans plusieurs domaines.Une telle expansion donne lieu à un besoin croissant en terme de performance (ressources,disponibilité, parallélisme, etc.) et a initié par la même occasion une transition del'utilisation de plateformes matérielles à processeur unique, à de grands ensemblesde nœuds de calcul inter-connectés et distribués. Cette tendance a donné la naissanceà une nouvelle famille de systèmes connue sous le nom de emph{Networked Embedded Systems},qui sont intrinsèquement distribués.Une telle évolution provient de la complexité croissante des logiciels temps réelembarqués sur de telles plateformes (par exemple les système de contrôle en avioniqueet dans domaines de l'automobile), ainsi que la nécessité d'intégrer des systèmes autrefoisisolés afin d'accomplir les fonctionnalités requises, améliorant ainsi les performanceset réduisant les coûts.Sans surprise, la conception, l'implémentation et la vérification de ces systèmes sontdes tâches très difficiles car ils sont sujets à différents types de facteurs, tels que lesdélais de communication, la fréquence du CPU ou même les imprécisions matérielles,ce qui augmente considérablement la complexité lorsqu'il s'agit de coordonner les activités parallèles.Dans cette thèse, nous proposons une démarche rigoureuse destinée à la construction d'applicationsdistribuées temps réel.Pour ce faire, nous étudions des modèles basés sur les automates temporisés, dont la sémantiqueest formellement définie, afin d'étudier le comportement d'un système donné avec des contraintes de tempsimposées lorsqu'il est déployé dans un environnement distribué. En particulier, nous étudionsemph{(i)} l'impact des délais de communication en introduisant une latence minimale entreles exécutions d'actions et la date à laquelle elles ont été décidées,et emph{(ii)} l'effet des imperfections matérielles, plus précisément les imprécisionsd'horloges, sur l'exécution des systèmes.Le paradigme des automates temporisés reste néanmoins destiné à décrire une abstractiondu comportement d'une application donnée.Par conséquent, nous utilisons une représentation intermédiaire del'application initiale, qui en plus d'avoir un comportement say{équivalent}, exprimeexplicitement les mécanismes mis en œuvre durant l'implémentation, et donc réduit ainsil'écart entre la modélisation et l'implémentation réelle.De plus, nous contribuons à la construction de tels systèmes en emph{(iii)}proposant une optimisation basée sur la emph{connaissance}, qui a pour but d'éliminer lestemps de calcul inutiles et de réduire les échanges de messages pendant l'exécution. Nous comparons le comportement de chaque modèle proposé au modèle initial et étudionsles relations entre les deux. Ensuite, nous identifions et caractérisons formellement lesproblèmes potentiels résultants de ces contraintes supplémentaires. Aussi, nous proposonsdes stratégies d'exécution qui permettent de préserver certaines propriétés souhaitéeset d'obtenir des scénarios d'exécution say{similaires}, et fidèles aux spécificationsde départs.
|
222 |
Etude des mécanismes de contamination particulaire et des moyens de détection : proposition et evaluation de solutions innovantes pour la détection en temps-réel de la sédimentation des particules sur les surfaces critiques / Study of particulate contamination mechanisms and detection methods : proposition and evaluation of innovating solutions for the real-time detection of particles sedimentation on critical surfacesMenant, Nina 16 December 2016 (has links)
L’assemblage des satellites dans des salles propres est actuellement surveillé, afin de garantir leur fiabilité, via des compteurs optiques de particules qui indiquent la quantité de particules par volume d’air prélevé dans la salle. Cependant, pourquoi mesurer la quantité de particules qu’il y a dans l’air alors que c’est la propreté des surfaces qui est importante ? La complexité des phénomènes de transport et de sédimentation des particules rend la simulation, la prédiction ou la prévention de ces phénomènes particulièrement difficile. L’objectif de cette thèse, qui s’est déroulée au Centre National d’Etudes Spatiales (CNES), est de proposer une méthode de mesure de la contamination particulaire locale et surfacique. Deux axes sont privilégiés dans ce but. En premier lieu, une évaluation des phénomènes de contamination et des moyens de mesure existants est proposée en abordant les spécificités du domaine du spatial. Les études théoriques et expérimentales rassemblées dans ce mémoire et le bilan des interrogations restantes tracent un portrait clair de l’état des connaissances actuelles dans ce domaine. Cet état de l’art amène à la définition d’un besoin pour la première fois clairement exprimé. Un tour d’horizon des moyens métrologiques s’appuyant sur cette évaluation préalable permet d’étudier avec précision les possibilités de développement d’un capteur. Finalement, cette thèse démontre que l’objectif de mesure de particules de 1 µm avec un moyen actif et en temps-réel est atteint avec une méthode de détection optique par transmission du signal lumineux. En second lieu, cette thèse s’attache donc aux caractéristiques du capteur dont les spécifications ont été étudiées et précisées en première partie. Si le développement du capteur est encore au stade initial, les perspectives de valorisation industrielle sont clairement établies. Ce mémoire s’appuie donc sur une recherche de fond sur la théorie de la contamination particulaire et les phénomènes physiques d’interaction entre les particules et leur environnement pour définir une méthode de mesure optique fiable, validée par la simulation, et faisant l’objet d’un dépôt de brevet. / The assembly of the satellites in clean rooms is currently monitored, in order to guarantee their reliability, via optical counters of particles which indicate the quantity of particles per volume of air in the room. However, why measure the quantity of particles in the air whereas it is the cleanliness of surfaces which is important? The complexity of the phenomena of transport and sedimentation of the particles makes the simulation, the prediction or the prevention of these phenomena particularly difficult. The objective of this thesis, which proceeded at the Centre National d’Etudes Spatiales (CNES), is to propose a method of measurement of the local and surface particulate contamination. Two axes are privileged to this end. Initially, an evaluation of the phenomena of contamination and existing methods of measurement are proposed by approaching space field specificities. The theoretical and experimental studies gathered in this memory and the assessment of the remaining interrogations trace a clear portrait of the state of current knowledge in this field. This state of the art brings to the definition of a need for the first time clearly expressed. A review of the metrological methods being based on this preliminary evaluation makes it possible to study with precision the possibilities of development of a sensor. Finally, this thesis shows that the goal of active and real-time measurement of particles of 1 µm is achieved with a method of optical detection by transmission of the light signal. In the second place, this thesis attempts to describe the characteristics of the sensor whose specifications were studied and specified in first part. If the development of the sensor is still at the initial stage, the prospects for industrial valorization are clearly established. This memory is thus based on a background research on the theory of the particulate contamination and the physical phenomena of interaction between the particles and their environment to define a method of optical measurement reliable, validated by simulation, and being the object of a patent filling.
|
223 |
Monitoring en temps réel de la vitesse de déplacement sur dispositif connecté : modélisation mathématique sur plateforme mobile interfacée avec une base de données d'entraînement et d'audit physiologique / Real-time motion tracking via a portable (wearable) device : data analytics on a portable platform synched with a training and physiological databaseCarbillet, Thomas 12 April 2019 (has links)
L'amélioration de la performance en course à pied, lors de courses sur du plat, raisonne avec l'actualité et l'objectif de voir un athlète descendre en dessous des deux heures sur Marathon. Cependant, il existe peu d'équipes travaillant de façon transverse sur les sujets de préparation et de stratégie de course à destination du grand public. Les programmes d'entraînement, fondés sur l'expérience des entraîneurs, ne sont pas, ou peu, personnalisés ce qui conduit à des risques de blessures et une perte de la motivation. Une limite de l'analyse actuelle des programmes d'entraînement semble avoir été atteinte et l'entreprise BillaTraining® a pour objectif de construire un pont entre la recherche scientifique et les coureurs amateurs.L'objectif principal de ce travail de thèse est double. Premièrement, nous avons essayé d'apporter une contribution à la recherche dans le domaine de la course à pied. Après avoir accumulé et formaté des données d'entraînements et de courses provenant de différentes sources, nous avons cherché à décrire des phénomènes tels que l'accélération humaine ou encore les différentes stratégies de course employées sur Marathon pour des coureurs dont les performances de durée de course sont comprises entre 2h30 et 4 heures.Deuxièmement, nous avons développé une application web intégrant les trois phases de la méthode BillaTraining®. La première étape est un audit énergétique qui n'est autre qu'un entraînement de trente minutes à la sensation, permettant de connaitre les capacités physiques d'un coureur. La second étape, le radar énergétique, est le bilan de l'audit et agit comme point d'entrée de l'entraînement sur-mesure qui est la troisième et dernière étape.Afin de répondre à ces deux objectifs, nous avons intégré des notions de physiologie, de mathématiques et d'informatique.Les connaissances en physiologie sont basées sur l'état de l'art ainsi que les recherches passées et présentes du professeur Véronique Billat. Par extension, il s'agit du coeur de métier de l'entreprise BillaTraining®. Les idées de recherche présentent dans cette thèse émanent de la physiologie.Les mathématiques, quand à elles, nous ont permis de décrire certains phénomènes physiologiques grâce notamment aux statistiques. Nous avons eu l'occasion d'utiliser le modèle d'Ornstein-Uhlenbeck de retour à la moyenne ou encore la méthode PELT (Pruned Exact Linear Time) pour la détection d'instants de ruptures dans une série temporelle.Finalement, l'informatique permet de faire communiquer les mathématiques et la physiologie à des fins de recherche scientifique et commerciales. / The improvement running performance has become a major topic lately. We are getting closer to running a marathon in under 2 hours. However, there are not so many professionals working transversally regarding pre-race and in-race preparation concerning the general public. Training plans are based on trainers' experience and are often not custom-made. This exposes the runners to injury risk and motivation loss. It seems that the current analysis of training plans has reached a limit. The aim for BillaTraining® is to go beyond this limit by connecting the research with the general public of runners.This PhD has two main goals. The first one is trying to contribute to the research about running. After gathering and formatting trainings and races data from different origins, we tried to isolate and describe how humans run marathons including 2.5 to 4-hour performances. We studied acceleration, speed and heart rate time series among other things, with the idea of understanding the different running strategies.The second one is the development of a web application embracing the three steps of the BillaTraining® method. The first step is an energetic audit which is a 30-minute running session guided by the runner's sensations. The second step is the energetic radar which is the results of the audit. The last step is a tailor-made training plan built depending on the runner's objectives.In order to come up with a solution, we had to bring together Physiology, Mathematics and Computer Science.The knowledge we had in Physiology was based on professor Véronique Billat's past and current researches. These researches are now part of BillaTraining® and are central for the growth of the company.We used Mathematics to try to describe physiological phenomenons thanks to Statistics. By applying the Ornstein-Uhlenbeck model, we found that humans are able to run at an even acceleration. By using the PELT (Pruned Exact Linear Time) method we automated changepoints detection in time series.Finally, Computer Science allowed a communication between Physiology and Mathematics for research, as well as marketing training tools at the forefront of innovation.
|
224 |
Simulation temps réel en dynamique non linéaire : application à la robotique souple / Real time simulation in non linear dynamics : application in soft robotsMontagud, Santiago 13 December 2018 (has links)
L’intégration des méthodes numériques dans les procédés industriels à son origine à l’apparition des ordinateurs, et est de plus en plus intégré parallèlement au développement de la technologie. Dans le cadre des procédés industriels où interviennent des structures en mouvement, il est intéressant d’avoir de méthodes de calcul rapide pour de problèmes non linéaires, comme par exemple, la manipulation de matériaux souples par robots. La résolution de ce type de problème reste encore comme un défi pour l’ingénierie. Malgré l’existence de nombreuses méthodes pour résoudre les problèmes dynamiques, aucun n’est adaptée à la simulation en temps réel. Pour la façon de résolution, nous avons divisé le problème dynamique en deux sous-problèmes : le problème direct, qui consiste à calculer les déplacements en fonction de la force appliqué, et le problème inverse, dans lequel on calcule la force en fonction des déplacements appliqués. / Integration of numeric methodes in industrial procedures starts with the development of the computers, and its being integrated as its grows the technology. In the industrial procedures where moving structrues are involved, its necessary the hability of fast computing in non lineare problems, for example, material manipulation by soft robots. The solution of this kind of problems is still a challenge for the engineering. Despite the existance of numerous methodes to solve the dynamic problem, non of them is adapted to real time simulation. By the way of facing the problem, we have divised the dynamic problem in two subproblems: the direct problem, where displacements are computed when an external force is applied, and the inverse problem, where the external force is computed from the displacements.
|
225 |
Interactive and connected rehabilitation systems for e-health / La rééducation fonctionnelle à domicileTannous, Halim Elie 17 October 2018 (has links)
La rééducation fonctionnelle classique comprend des séances thérapeutiques, des exercices à domicile et des mouvements avec ou sans l'aide de thérapeutes. Cette approche classique souffre de nombreuses limitations, en raison de l’incapacité de l’expert à suivre les séances à domicile du patient et du manque de motivation du patient pour répéter les exercices sans retour. Les jeux sérieux ont été présentés comme une solution à ces problèmes. Premièrement, des exergames ont été développés à l’aide d’une méthodologie de codesign, où patients, experts et développeurs ont pris part aux procédures de conception. Le capteur Kinect a été utilisé pour capturer la cinématique en temps réel au cours de l’exercice. Ensuite, une fusion de données a été étudier entre le capteur Kinect et les unités de mesure inertielles, afin d’augmenter la précision de l’estimation de l’angle des articulations, à l’aide d’une approche système de systèmes. Le système a été évalué par des patients avec différentes pathologies au cours de multiples campagnes d'évaluation. Les résultats obtenus montrent que les jeux sérieux peuvent être une solution pour des pathologies spécifiques. En outre, les experts ont été convaincus de la pertinence clinique de ce dispositif et ont estimé que les données proposées étaient suffisantes pour évaluer la situation du patient. La mise en place de tels systèmes maximiserait l’efficacité du programme de réadaptation. D'autre part, ce système permettrait également de réduire les limitations actuellement présentes dans les programmes de rééducation classiques, permettant aux patients de visualiser leurs mouvements et aux experts de suivre l'exécution de l'exercice à domicile. / Conventional musculoskeletal rehabilitation consists of therapeutic sessions, home exercise assignment, and movement execution with or without the assistance of therapists. This classical approach suffers from many limitations, due to the expert’s inability to follow the patient’s home sessions, and the patient’s lack of motivation to repeat the same exercises without feedback. Serious games have been presented as a possible solution for these problems. This thesis was carried out in the eBioMed experimental platform of the Université de technologie de Compiège, and in the framework of the Labex MS2T. The aim of this thesis is to develop a real-time, serious gaming system for home-based musculoskeletal rehabilitation. First, exergames were developed, using a codesign methodology, where the patients, experts and developers took part in the design and implementation procedures. The Kinect sensor was used to capture real-time kinematics during each exercise. Next, data fusion was implemented between the Kinect sensor and inertial measurement units, to increase the accuracy of joint angle estimation, using a system of systems approach. In addition, graphical user interfaces were developed, for experts and patients, to suit the needs of different end-users, based on the results of an end-user acceptability study. The system was evaluated by patients with different pathologies through multiple evaluation campaigns. Obtained results showed that serious games can be a good solution for specific types of pathologies. Moreover, experts were convinced of the clinical relevance of this device, and found that the estimated data was more than enough to assess the patient’s situation during their home-based exercise sessions. Finally, during these three years, we have set the base for a home-based rehabilitation system that can be deployed at home or in a clinical environment. The implementation of such systems would maximize the efficiency of rehabilitation program, while saving the patient’s and expert’s time and money. On the other hand, this system would also reduce the limitation that are currently present in classical rehabilitation programs, allowing the patients to visualize their movements, and the experts to follow the home exercise execution.
|
226 |
Processus de détermination d'architecture logicielle optimale pour processeurs Multicœurs pour le milieu automobile / Design process for the optimization of embedded software architectures on to multi-core processors in automotive industryWang, Wenhao 10 July 2017 (has links)
La migration récente des plateformes mono-cœur vers multi-cœur, dans le domaine automobile, révèle de grands changements dans le processus de développement du logiciel embarqué. Tout d’abord, les concepteurs de logiciel ont besoin de nouvelles méthodes leur permettant de combler le fossé entre la description des applications (versus Autosar) et le déploiement de tâches. Deuxièmement, l’utilisation du multi-cœur doit assurer la compatibilité avec les contraintes liées aux aspects temps-réel et à la Sûreté de fonctionnement. Au final, les développeurs ont besoins d’outils pour intégrer de nouveaux modules dans leur système multi-cœur. Confronter aux complexités ci-dessus, nous avons proposé une méthodologie afin de repartir, de manière optimale, les applications sous forme de partitions logiques. Nous avons ainsi intégré dans notre processus de développement, un outil de distribution des traitements d’un système embarqué sur différents processeurs et compatible avec le standard AUTOSAR (AUTomotive Open System ARchitecture). Les solutions de partitionnement traitent simultanément l’allocation des applications ainsi que la politique d’ordonnancement. Le périmètre d’étude du partitionnement est automatique, les solutions trouvées étant évaluées par nos fonctions de coût. Elles prennent aussi en compte des critères tels que, le coût de communication inter-cœur, l’équilibrage de la charge CPU entre les cœurs et la gigue globale. Pour la partie ordonnancement, nous présentons une formalisation des dépendances sous forme périodiques pour répondre au besoin automobile. L’algorithme d’ordonnancement proposé prend en compte cette spécificité ainsi que les contraintes temps-réel et fonctionnelles, assurant l’applicabilité de notre méthodologie dans un produit industriel. Nous avons expérimenté nos solutions avec une application de type contrôle moteur, sur une plateforme matérielle multi-cœur. / The recent migration from single-core to multi-core platforms in the automotive domain reveals great challenges for the legacy embedded software design flow. First of all, software designers need new methods to fill the gap between applications description and tasks deployment. Secondly, the use of multiple cores has also to remain compatible with real-time and safety design constraints. Finally, developers need tools to assist them in the new steps of the design process. Face to these issues, we proposed a method integrated in the AUTOSAR (AUTomotive Open System ARchitecture) design flow for partitioning the automotive applications onto multi-core systems. The method proposes the partitions solution that contains allocation of application as well as scheduling policy simultaneously. The design space of the partitioning is explored automatically and the solutions are evaluated thanks to our proposed objective functions that consider certain criteria such as communication overhead and global jitters. For the scheduling part, we present a formalization of periodic dependencies adapted to this automotive framework and propose a scheduling algorithm taking into account this specificity. Our defined constraints from real-time aspect as well as functional aspect make sure the applicability of our method on the real life user case. We leaded experiments with a complex and real world control application onto a concrete multi-core platform.
|
227 |
Architecture matérielle pour la reconstruction temps réel d'images par focalisation en tout point (FTP) / Hardware architecture for real-time imaging towards Total Focusing Method (TFM )Njiki, Mickaël 27 September 2013 (has links)
Le contrôle non destructif (CND) a pour but de détecter et de caractériser d’éventuels défauts présents dans des pièces mécaniques. Les techniques ultrasonores actuelles utilisent des capteurs multiéléments associés à des chaînes d’instrumentations et d’acquisitions de données multi capteurs en parallèles. Compte tenu de la masse de données à traiter, l’analyse de ces dernières est généralement effectuée hors ligne. Des travaux en cours, au Commissariat à l’Energie Atomique (CEA), consistent à développer et évaluer différentes méthodes d’imageries avancées, basées sur la focalisation synthétique. Les algorithmes de calculs induits nécessitent d’importantes opérations itératives sur un grand volume de données, issues d’acquisition multiéléments. Ceci implique des temps de calculs important, imposant un traitement en différé. Les contraintes industrielles de caractérisation de pièces mécaniques in situ imposent de réaliser la reconstruction d’images lors de la mesure et en temps réel. Ceci implique d’embarquer dans l’appareil de mesure, toute l’architecture de calcul sur les données acquises des capteurs. Le travail de thèse a donc consisté à étudier une famille d’algorithmes de focalisation synthétique pour une implantation temps réel sur un instrument de mesure permettant de réaliser l’acquisition de données. Nous avons également étudié une architecture dédiée à la reconstruction d’images par la méthode de Focalisation en Tout Point (FTP). Ce travail a été réalisé dans le cadre d’une collaboration avec l’équipe ACCIS de l’institut d’Electronique Fondamentale, Université de Paris Sud. Pour ce faire, notre démarche s’est inspirée de la thématique de recherche d’Adéquation Algorithme Architecture (A3). Notre méthodologie, est basée sur une approche expérimentale consistant dans un premier temps en une décomposition de l’algorithme étudié en un ensemble de blocs fonctionnels (calculs/transferts). Cela nous a permis de réaliser l’extraction des blocs pertinents de calculs à paralléliser et qui ont une incidence majeure sur les temps de traitement. Nous avons orienté notre stratégie de développement vers une conception flot de donnée. Ce type de modélisation permet de favoriser les flux de données et de réduire les flux de contrôles au sein de l’architecture matérielle. Cette dernière repose sur une plateforme multi-FPGA. La conception et l’évaluation de telles architectures ne peuvent se faire sans la mise en place d’outils logiciels d’aide à la validation tout au long du processus de la conception à l’implantation. Ces outils faisant partie intégrante de notre méthodologie. Les modèles architecturaux des briques de calculs ont été validés au niveau fonctionnel puis expérimental, grâce à la chaîne d’outils développée. Cela inclus un environnement de simulation nous permettant de valider sur tables les briques partielles de calculs ainsi que le contrôle associé. Enfin, cela a nécessité la conception d’outils de génération automatique de vecteurs de tests, à partir de données de synthèses (issues de l’outil simulation CIVA développé par le CEA) et de données expérimentales (à partir de l’appareil d’acquisition de la société M2M-NDT). Enfin, l’architecture développée au cours de ce travail de thèse permet la reconstruction d’images d’une résolution de 128x128 pixels, à plus de 10 images/sec. Ceci est suffisant pour le diagnostic de pièces mécaniques en temps réel. L’augmentation du nombre d’éléments capteurs ultrasonores (128 éléments) permet des configurations topologiques plus évoluées (sous forme d’une matrice 2D), ouvrant ainsi des perspectives vers la reconstruction 3D (d’un volume d’une pièce). Ce travail s’est soldé par une mise en œuvre validée sur l’instrument de mesure développé par la société M2M-NDT. / Non-destructive Evaluation (NDE) regroups a set of methods used to detect and characterize potential defects in mechanical parts. Current techniques uses ultrasonic phased array sensors associated with instrumentation channels and multi-sensor data acquisition in parallel. Given the amount of data to be processed, the analysis of the latter is usually done offline. Ongoing work at the French “Commissariat à l’Energie Atomique” (CEA), consist to develop and evaluate different methods of advanced imaging based on synthetic focusing. The Algorithms induced require extensive iterative operations on a large volume of data from phased array acquisition. This involves important time for calculations and implies offline processing. However, the industrial constraint requires performing image reconstruction in real time. This involves the implementation in the measuring device, the entire computing architecture on acquired sensor data. The thesis has been to study a synthetic focusing algorithm for a real-time implementation in a measuring instrument used to perform ultrasonic data acquisition. We especially studied an image reconstruction algorithm called Total Focusing Method (TFM). This work was conducted as part of collaboration with the French Institute of Fundamental Electronics Institute team of the University of Paris Sud. To do this, our approach is inspired by research theme called Algorithm Architecture Adequation (A3). Our methodology is based on an experimental approach in the first instance by a decomposition of the studied algorithm as a set of functional blocks. This allowed us to perform the extraction of the relevant blocks to parallelize computations that have a major impact on the processing time. We focused our development strategy to design a stream of data. This type of modeling can facilitate the flow of data and reduce the flow of control within the hardware architecture. This is based on a multi- FPGA platform. The design and evaluation of such architectures cannot be done without the introduction of software tools to aid in the validation throughout the process from design to implementation. These tools are an integral part of our methodology. Architectural models bricks calculations were validated functional and experimental level, thanks to the tool chain developed. This includes a simulation environment allows us to validate partial calculation blocks and the control associated. Finally, it required the design of tools for automatic generation of test vectors, from data summaries (from CIVA simulation tool developed by CEA) and experimental data (from the device to acquisition of M2M –NDT society). Finally, the architecture developed in this work allows the reconstruction of images with a resolution of 128x128 pixels at more than 10 frames / sec. This is sufficient for the diagnosis of mechanical parts in real time. The increase of ultrasonic sensor elements (128 elements) allows more advanced topological configurations (as a 2D matrix) and providing opportunities to 3D reconstruction (volume of a room). This work has resulted in implementation of validated measurement instrument developed by M2M -NDT.
|
228 |
Décrypter la formation de l'épithélium olfactif : de la diversité cellulaire à la morphogenèse / Deciphering olfactory epithelium development : from cell type diversity to morphogenesisAguillon, Raphaël 15 December 2017 (has links)
La formation d'un organe repose sur la coordination spatio-temporelle du positionnement et de la différenciation de progéniteurs. La finalité de ces évènements permet la constitution structurelle de l'organe et la production de la diversité cellulaire nécessaire pour assurer ses fonctions. L'épithélium olfactif de l'embryon de poisson-zèbre est issu de la migration de progéniteurs qui vont générer entre autres les neurones olfactifs. Au cours de ma thèse je me suis intéressé aux bases génétiques et moléculaires de la coordination de la morphogenèse et de la neurogenèse de cet épithélium tout en étudiant l'origine de la diversité des types cellulaires olfactifs. L'imagerie en temps réel m'a permis de caractériser la migration de ces progéniteurs en générant une carte morphométrique de leur déplacement. Mon travail de thèse révèle que le proneural Neurog1 régule directement l'expression de cxcr4b, un récepteur au chimiokine, dans les progéniteurs olfactifs assurant leur positionnement. Ainsi, Neurog1 coordonnerait la position et l'identité des progéniteurs olfactifs via ses cibles transcriptionnelles. Au sein de l'épithélium olfactif dans l'embryon, deux populations cellulaires (neurones à GnRH et neurones à microvillosités) ont été décrites comme provenant des crêtes neurales céphaliques (CNC). J'ai pu montrer que l'expression de marqueurs spécifiques de ces populations n'est pas affectée dans un contexte d'absence de différenciation des CNCs (sox10-/-) suggérant que ces types cellulaires ne dérivent pas de ce territoire. Afin d'identifier leur territoire d'origine, j'ai développé une méthode d'imagerie en temps réel, le backtracking, qui m'a permis de déterminer que la région de la placode olfactive, et non les crêtes neurales, génère ces deux types cellulaires. Ainsi j'ai pu définir la source de ces deux populations neuronales tout en minimisant la contribution des crêtes neurales. En conclusion mes résultats suggèrent que la diversité des neurones olfactifs serait produite localement et ceci conjointement à la morphogenèse de l'épithélium. / The correct development of sensory organs relies on the coordination between changes in progenitor positioning over time and the differentiation/specification of different neural subtypes. The outcome of this coordination is proper organ shape and cell diversity, which are required for functionality. The zebrafish embryonic olfactory epithelium arises from progenitor migration and differentiation. During my PhD, I studied the genetic and molecular basis of morphogenesis in this tissue, and how this is coordinated with neurogenesis, as well as revisiting the origin of olfactory cell type diversity.First, I generated a morphometric map of olfactory progenitors through the characterization of their migration in live embryos. Next, I showed that the proneural transcription factor Neurog1 directly regulates cxcr4b expression, a chemokine receptor that has already been shown to govern olfactory progenitor positioning. Thus, Neurog1 orchestrates olfactory progenitor position and the generation of olfactory neurons via distinct transcriptional targets. Secondly, I addressed the origin of olfactory neuron diversity. Within the embryonic olfactory epithelium, two cell populations (GnRH neurons and microvillous neurons) have been described as cephalic neural crest (CNC) derivatives. I found, however, that the expression of specific markers of both populations is unaffected in a genetic context blocking CNC differentiation. To revisit the lineage assignment of these cell types, I developed a backtracking approach through time-lapse live imaging. I found that both populations are derived from classical olfactory placode progenitor and not the CNC. In conclusion, my results indicate that heterogeneity of olfactory cell-types is locally generated, and concomitant with morphogenesis of the placode.
|
229 |
Modeling and verification in model-based software engineering : application to embedded systems / Modélisation et vérification dans l'ingénierie dirigée par les modèles : application aux systèmes embarquésBagnato, Alessandra 12 February 2013 (has links)
Les systèmes embarqués, y compris les dispositifs, l’intergiciel et le logiciel pour la création de sous-systèmes intelligents capables de gérer le contrôle d’appareils électroniques, font de plus en plus partie de nos vies quotidiennes : ils sont intégrés dans des infrastructures de base, (par exemple dans la gestion des routes et des chemins de fer) et sont désormais utilisés en tant que technologies-clés par des millions d'applications logicielles chaque jour. En outre, l'évolution rapide et continue des systèmes embarqués modernes a provoqué de nouveaux défis. Par exemple, la conception des processus complexes qui causent des retards dans le temps de commercialisation et la conséquente augmentation des coûts globaux. Ces systèmes sont plus enclins aux erreurs et par conséquence il devient prioritaire de fournir aux concepteurs des outils effectifs et efficaces pour les aider à surmonter les difficultés liées à la conception des systèmes globales, pour la vérification et pour la validation. Cette thèse est la définition et le développement d'une méthodologie de modélisation basée sur le profil de MARTE et sur le profil de SysML dans un contexte avionique, et orientée à la réutilisation des composantes logicielles et à leur vérification. Cette thèse vise à discuter et illustrer aussi l'efficacité d’une stratégie basée sur la combinaison d’UML, MARTE (Modeling and Analysis of Real Type and Embedded Systems) et des langages SysML sur des étapes différentes de la modélisation d'un système embarqué / Embedded Systems, including devices, middleware and software for the creation of intelligent sub-systems able of monitoring and controlling appliances, are more and more part of our world everyday lives; they are included in the basic infrastructure of society such as roads and railways and are key technologies used by millions of people every day. Moreover the continuous rapid evolution of modern embedded systems has given rise to new challenges: such as increasingly complex design processes that cause delays in time to market and cause escalation of overall design costs. Additionally, these systems are more prone to containing errors, and it becomes more relevant to provide designers with effective tools to aid them in overcoming the difficulties related to the overall system design, verification and validation. This thesis contributes to the definition and to the development of a model based methodology grounded on the OMG’s MARTE profile (Modeling and Analysis of Real Type and Embedded Systems) and on SysML profile to model requirements targeting an avionic case study, with a particular attention to the reuse of the modelled components and to the benefits of their verification. This thesis aims at discussing and illustrating the effectiveness of using a combination of UML, MARTE and SysML languages at the different steps of the embedded system modelling efforts and to provide within this thesis a set of methodological guidelines/steps and an approach to create design model, stores and verify them
|
230 |
Une approche holistique combinant flux temps-réel et données archivées pour la gestion et le traitement d'objets mobiles : application au trafic maritime / A hybrid approach combining real-time and archived data for mobility analysis : application to maritime traficSalmon, Loïc 17 January 2019 (has links)
La numérisation de nos espaces de vie et de mobilités s’est largement accentuée durant la dernière décennie. La multiplication des capteurs de toute nature permettant de percevoir et de mesurer notre espace physique en est le levier principal. L’ensemble de ces systèmes produit aujourd’hui de grands volumes de données hétérogènes sans cesse croissants, ce qui soulève de nombreux enjeux scientifiques et d'ingénierie en termes de stockage et de traitement pour la gestion et l’analyse de mobilités. Les travaux dans le domaine d’analyse des données spatio-temporelles ont largement été orientés soit vers la fouille de données historiques archivées, soit vers le traitement continu. Afin d’éviter les écueils de plus en plus prégnants dus à l’augmentation de ces volumes de données et de leur vélocité (temps de traitement trop long, modèles conceptuellement plus adaptés, analyse approximative des données), nous proposons la conception d’une approche hybride distribuée permettant le traitement combiné de flux temps-réel et de données archivées. L’objectif de cette thèse est donc de développer un nouveau système de gestion et de traitement distribué pour l’analyse des mobilités en particulier maritimes. La solution proposée répond principalement à des contraintes de temps-réel, les données archivées et les informations qui en sont extraites permettant d'améliorer la qualité de réponse. Une proposition de paradigme d'événements est également développée pour permettre ce traitement hybride mais aussi pour caractériser et identifier plus facilement des comportements types d'objets mobiles. Enfin, une requête appliquée sur des zones de couverture de signal pour des objets mobiles a été étudiée et testée sur des données maritimes mettant en exergue le besoin d'une approche hybride pour le traitement de trajectoires. / Over the past few years, the rapid prolifération of sensors and devices recording positioning information regularly produces very large volumes of heterogeneous data. This leads to many research challenges as the storage, distribution, management,Processing and analysis of the large mobility data generated still needs to be solved. Current works related to the manipulation of mobility data have been directed towards either mining archived historical data or continuous processing of incoming data streams.The aim of this research is to design a holistic System whose objective is to provide a combined processing of real time data streams and archived data positions. The proposed solution is real-time oriented, historical data and informations extracted from them allowing to enhance quality of the answers to queries. A event paradigm is discussed to facilitate the hybrid approach and to identify typical moving objects behaviors. Finally, a query concerning signal coverage of moving objects has been studied and applied to maritime data showing the relevance of a hybrid approach to deal with moving object data processing.
|
Page generated in 0.0666 seconds