• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 201
  • 43
  • 2
  • Tagged with
  • 722
  • 722
  • 334
  • 329
  • 196
  • 174
  • 144
  • 126
  • 114
  • 113
  • 104
  • 88
  • 83
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

New microfluidic systems for controlling the cell microenvironment during live-cell imaging / Développement de systèmes microfluidiques pour des applications biologiques sous microscopie haute résolution

Babic, Julien 14 December 2017 (has links)
Connaître en temps réel la réponse et le comportement des cellules et organismes modèles suite à des changements de leur environnement, ou à des modulations de leurs fonctions biologiques est devenu essentiel dans les sciences du vivant. Ces réponses nous permettent ensuite de comprendre les mécanismes qui régissent le fonctionnement des cellules vivantes, avec des implications en recherche fondamentale, appliquée et biomédicale. Un des plus gros défis technologiques reste le contrôle des paramètres environnementaux en microscopie haute résolution. De nos jours, aucun système ne permet de réguler un ensemble complexe de paramètres de manière précise, dynamique et simultanée tout en observant les cellules dans leur environnement. L’objectif de ma thèse est de mettre au point un tel dispositif permettant a minima une régulation fine de la température, de la composition du milieu, et notamment de la concentration de divers drogues. Ce système doit être compatible avec les applications les plus poussées en microscopie photonique. Mon approche au cours de ma thèse pour élaborer un tel système est l’utilisation de la microfluidique. En effet, c’est la seule technologie qui puisse de réaliser un tel multiplexage. Elle permet de manipuler des petites quantités de fluide à travers un système contenant des canaux de dimensions allant du micromètre au centimètre. Cet ordre de grandeur des canaux constitue un atout majeur (réduction de la consommation des réactifs, réduction des couts, cinétiques des réactions chimiques et biologiques élevées, temps de diffusion court, etc.) et permet d’allier les expériences biologiques à la microscopie. Mon objectif est de concevoir une puce microfluidique qui représentera un pas technologique majeur et ouvrira de nouvelles possibilités de recherche. / Monitoring in real-time the response of cells and model organisms to the changes in their environment or to modulations of their biological functions has become essential in life sciences. One of the main technical challenges for biologists is the precise and dynamic control of various environmental parameters while doing high-resolution microscopy. My thesis consists of building a robust and versatile system, dedicated to live-cell imaging that will be compatible with adherent and non adherent models, that could provide a precise and simultaneous control of 1) the temperature, 2) the media exchanges and 3) the drug concentration while doing photonic microscopy. My approach is to use microfluidics, which is the best candidate in order to achieve this system and provides all the necessary controls of micro-scaled volumes for culturing, maintaining or analyzing cells. It produces miniaturized systems used as tools for biological experiments, in which channels of a micro-scaled dimension are used for the fluid circulation. The laminar flow in these chips allows fast molecule diffusion as well as fast temperature diffusion. Because of the high surface to volume ratio, the consumption of reagents is reduced, and media switches can be fast. This system will represent a major technical and beneficial step and will open new possibilities of research in biology.
382

Towards real-time image understanding with convolutional networks / Analyse sémantique des images en temps-réel avec des réseaux convolutifs

Farabet, Clément 18 December 2013 (has links)
One of the open questions of artificial computer vision is how to produce good internal representations of the visual world. What sort of internal representation would allow an artificial vision system to detect and classify objects into categories, independently of pose, scale, illumination, conformation, and clutter ? More interestingly, how could an artificial vision system {em learn} appropriate internal representations automatically, the way animals and humans seem to learn by simply looking at the world ? Another related question is that of computational tractability, and more precisely that of computational efficiency. Given a good visual representation, how efficiently can it be trained, and used to encode new sensorial data. Efficiency has several dimensions: power requirements, processing speed, and memory usage. In this thesis I present three new contributions to the field of computer vision:(1) a multiscale deep convolutional network architecture to easily capture long-distance relationships between input variables in image data, (2) a tree-based algorithm to efficiently explore multiple segmentation candidates, to produce maximally confident semantic segmentations of images,(3) a custom dataflow computer architecture optimized for the computation of convolutional networks, and similarly dense image processing models. All three contributions were produced with the common goal of getting us closer to real-time image understanding. Scene parsing consists in labeling each pixel in an image with the category of the object it belongs to. In the first part of this thesis, I propose a method that uses a multiscale convolutional network trained from raw pixels to extract dense feature vectors that encode regions of multiple sizes centered on each pixel. The method alleviates the need for engineered features. In parallel to feature extraction, a tree of segments is computed from a graph of pixel dissimilarities. The feature vectors associated with the segments covered by each node in the tree are aggregated and fed to a classifier which produces an estimate of the distribution of object categories contained in the segment. A subset of tree nodes that cover the image are then selected so as to maximize the average "purity" of the class distributions, hence maximizing the overall likelihood that each segment contains a single object (...) / One of the open questions of artificial computer vision is how to produce good internal representations of the visual world. What sort of internal representation would allow an artificial vision system to detect and classify objects into categories, independently of pose, scale, illumination, conformation, and clutter ? More interestingly, how could an artificial vision system {em learn} appropriate internal representations automatically, the way animals and humans seem to learn by simply looking at the world ? Another related question is that of computational tractability, and more precisely that of computational efficiency. Given a good visual representation, how efficiently can it be trained, and used to encode new sensorial data. Efficiency has several dimensions: power requirements, processing speed, and memory usage. In this thesis I present three new contributions to the field of computer vision:(1) a multiscale deep convolutional network architecture to easily capture long-distance relationships between input variables in image data, (2) a tree-based algorithm to efficiently explore multiple segmentation candidates, to produce maximally confident semantic segmentations of images,(3) a custom dataflow computer architecture optimized for the computation of convolutional networks, and similarly dense image processing models. All three contributions were produced with the common goal of getting us closer to real-time image understanding. Scene parsing consists in labeling each pixel in an image with the category of the object it belongs to. In the first part of this thesis, I propose a method that uses a multiscale convolutional network trained from raw pixels to extract dense feature vectors that encode regions of multiple sizes centered on each pixel. The method alleviates the need for engineered features. In parallel to feature extraction, a tree of segments is computed from a graph of pixel dissimilarities. The feature vectors associated with the segments covered by each node in the tree are aggregated and fed to a classifier which produces an estimate of the distribution of object categories contained in the segment. A subset of tree nodes that cover the image are then selected so as to maximize the average "purity" of the class distributions, hence maximizing the overall likelihood that each segment contains a single object. The system yields record accuracies on several public benchmarks. The computation of convolutional networks, and related models heavily relies on a set of basic operators that are particularly fit for dedicated hardware implementations. In the second part of this thesis I introduce a scalable dataflow hardware architecture optimized for the computation of general-purpose vision algorithms, neuFlow, and a dataflow compiler, luaFlow, that transforms high-level flow-graph representations of these algorithms into machine code for neuFlow. This system was designed with the goal of providing real-time detection, categorization and localization of objects in complex scenes, while consuming 10 Watts when implemented on a Xilinx Virtex 6 FPGA platform, or about ten times less than a laptop computer, and producing speedups of up to 100 times in real-world applications (results from 2011)
383

Real-time rendering of cities at night

Conte, Melino 11 1900 (has links)
No description available.
384

Propositions de méthodes pour adapter le réseau aux contraintes d'applicatons temps-réel / Propositions of methods to adapt the network to real-time applications constraints

Diouri, Idriss 15 October 2010 (has links)
L'étude des Systèmes Contrôlés en Réseaux (SCR) repose sur l'identification des exigences de fonctionnement de l'application appelées Qualité de Contrôle (QdC) et sur l'évaluation de la Qualité de Service (QdS) offerte par le réseau. Les travaux sur les SCR se repartissent selon deux approches : la commande en réseau et la commande de réseau. Cette thèse se positionne sur la deuxième approche avec une recherche axée sur la modélisation des mécanismes d'ordonnancement implémentés dans les équipements réseau et notamment dans les commutateurs Ethernet qui sont de plus en plus utilisés dans les applications industrielles. Ce travail de recherche étudie plus particulièrement comme paramètre de QdS, les délais qui engendrent des perturbations sur le système commandé. Cette thèse propose deux modèles de classification de service reposant sur des ordonnanceurs WRR (Weighted Round Robin). La première modélisation suit une approche constructive en utilisant la théorie du calcul réseau. La seconde s'appuie sur une phase d'identification à partir de simulations numériques et de la logique floue. Dans les deux cas, le but est d'offrir une bande passante suffisante pour le trafic contraint temporellement tout en maximisant la bande passante dédiée aux autres trafics pour éviter des effets famine. L'approche calcul réseau permet de configurer le réseau hors-ligne pour répondre à des contraintes temporelles strictes du SCR. La solution basée sur la logique floue autorise une commande dynamique de l'ordonnanceur pour ajuster en ligne le réseau en fonction des variations du trafic. Elle ne peut s'appliquer qu'à des SCR ayant des contraintes de temps souples / The study of the Networked Control Systems (NCS) is based both on the identification of the application functioning requirements called Quality of Control (QoC) and on the evaluation of the Quality of Service (QoS) offered by the network. The studies on the NCS are classified according to two approaches: the control over network and the control of network. This thesis addresses the second approach and models the scheduling mechanisms implemented in the Ethernet switches that are more and more used in the industrial applications. The specific QoS parameter studied in this thesis is the delay disturbing the controlled system. This thesis proposes two models of classification of service based on WRR (Weighted Round Robin) schedulers. The first modeling follows a constructive approach by using the network calculus theory. The second is based on an identification step from numerical simulations and from the fuzzy logic. In the two cases, the purpose is both to offer enough bandwidth for the time constrained traffic and to maximize the bandwidth dedicated to the others traffics to avoid famine effects. The network calculus approach is used to configure off-line the network in respecting the NCS strict time constraints. The solution based on the fuzzy logic enables a dynamic control of the scheduler in order to tune on-line the network according to the traffic variations. This latter can be applied only to NCS with soft time constraints
385

Conception conjointe optimisée de lois de contrôle et d'ordonnancement / Integrated optimal control and scheduling co-design

Jia, Ning 15 January 2009 (has links)
Le cadre de ce travail est l’étude coordonnée de lois de contrôle et d’ordonnancement. Le premier objectif est de proposer et évaluer une approche de contrôle de la dégradation de la Qualité de Contrôle (QdC) par rejet sélectif d’instances de tâches ou de messages selon le modèle (m,k)-firm. Plus particulièrement, nous avons étudié l’impact de distribution de rejets sur la QdC d'une boucle de contrôle et, sur la base des résultats obtenus, nous avons spécifié une méthode de co-conception permettant de déterminer les paramètres (gain) optimaux de la loi de contrôle et les paramètres de la contrainte (m,k)-firm spécifiant le rejet sélectif d’instances. Cette proposition a été validée sur modèles à l’aide de techniques analytiques, par simulation ainsi que grâce à des expérimentations. Notre deuxième objectif est d'étudier le problème de l'ordonnancement d'un ensemble de tâches temps réel réalisant chacune les algorithmes de contrôle dans une application centralisée évolutive. Nous proposons un mécanisme d'ordonnancement qui ajuste en ligne les contraintes (m,k)-firm des tâches suivant la configuration courante de l'application de manière à ce qu’un critère reflétant la performance globale de l'application soit optimal à tout instant / In this thesis, we study a coordinated approach for the design of control laws and scheduling parameters. The first objective is to propose and evaluate a technique to control the degradation of the quality of control (QoC) by selectively rejecting task or message instances according to the (m,k)-firm model. More specifically, we have studied the impact of the (m,k)-firm packet dropout policy on the QoC of a control loop. Based on the obtained results, we have specified a co-design method for determining the parameters (gain) of the optimal control law and the (m,k)-firm constraint specifying the selective rejet of instances. This proposal was validated by using analytical techniques, simulation and experimentation activities. The second objective is to address the scheduling problem of a set of real-time tasks where each task implements a control law in a centralized scalable application. We proposed a scheduling mechanism which determines on line, according to the current system configuration, a (m,k)-constraint based scheduling strategy to apply to each task so that the criterion reflecting the overall performance of the application is optimal at all times
386

De l'usage d'architectures Ethernet commutées embarquées dans les lanceurs spatiaux / On the use of switched Ethernet embedded in space launchers

Robert, Jérémy 23 October 2012 (has links)
Les lanceurs spatiaux actuels, et en particulier Ariane 5, utilisent le réseau déterministe MIL-STD-1553B. Compte tenu des nouveaux objectifs de réduction des coûts et de la masse du système global ainsi que du support de trafic de télémesure multimédia, cette technologie n'est plus forcément optimale. Parmi les différents candidats de remplacement, cette thèse met en évidence les capacités du standard Ethernet à répondre à ces nouveaux objectifs tout en s'appuyant sur une utilisation de composants matériels et d'outils de développement existants à moindre coût (COTS). La première contribution porte sur l'évaluation de performances temporelles des architectures commutées. Les travaux mettent ainsi en évidence les gains et limites liés au choix d'une part du mode de communication (de maître/esclaves à producteurs/consommateur) et d'autre part à une future distribution de l'avionique. Pour cela, cette étude s'appuie sur une évaluation déterministe des délais de bout en bout par calcul réseau, simulations et expérimentations. Ces résultats ont été validés pour deux architectures commutées pour un scénario représentatif des vols actuels. La seconde contribution concerne l'amélioration de la disponibilité du système de communication. Il est proposé une stratégie de reconfiguration "temps réel" des chemins par supervision active du réseau. Dans le cadre d'exigences critiques, il est également proposé l'utilisation d'arbres couvrants multiples permettant d'anticiper la défaillance d'éléments d'interconnexion. Enfin, le choix d'architectures commutées et segmentées ne permet plus d'observer en tout point le réseau comme sur un bus. Pour cela, cette thèse met en avant les conditions et performances dans lesquelles un protocole de synchronisation d'horloges pourra contribuer à générer à partir de plusieurs points de captures une trace unique des échanges sur le réseau. Ce travail permettra d'identifier les tests pour une future validation du standard Ethernet pour les lanceurs spatiaux / Current space launchers, and particularly Ariane 5, use the deterministic network MIL-STD-1553B. According to the new objectives of cost and system mass reduction and of multimedia traffic support, this technology is not optimal anymore. Among the potential candidates, this thesis highlights the fact that such objectives can be achieved through the use of Ethernet standard based on components-on-the-shelf. The first contribution focuses on time performance evaluation of switched architectures. The gain and limits related to the communication mode (from master/slaves to producers/consummers) and future avionic distribution are studied. This study relies on a deterministic evaluation of the end-to-end delay by using network calculus, simulations and experiments. These results are validated with two switched architectures by using a scenario considered as representative of current flights. The second contribution is the network availability improvement. A real-time path reconfiguration strategy is proposed through active network supervision. Based on critical requirements, it is also suggested to use multiple spanning-trees for anticipating network element failures. The last contribution deals with the issue that in switched and segmented architectures it is not possible to collect all the traffic as in a bus. In order to do so, this thesis introduces the configurations under which a clock synchronization protocol could contribute to generate a single network trace from many collecting points. This work will enable to identify the tests for a future Ethernet standard validation in the framework of space launchers
387

Garantir la qualité de service temps réel selon l'approche (m,k)-firm / Guarantee Real-Time Quality of Service according to (m,k)-firm approach

Li, Jian 14 February 2007 (has links)
Cette thèse se focalise sur le développement des algorithmes d’ordonnancement sous contrainte (m, k)-firm, ainsi que leurs applications pour la gestion de la qualité de service (QdS) dans les réseaux et systèmes temps réel distribués. L’objectif recherché est la garantie déterministe de la QdS tout en maintenant un fort taux d’utilisation des ressources. Les contributions sont (1) l’établissement d’une condition suffisante d’ordonnançabilité d'un ensemble de tâches sous l’algorithme « distance based priority »; (2) la définition de R-(m, k)-firm, un nouveau modèle qui relâche la contrainte (m, k)-firm et qui permet de modéliser de façon plus juste des exigences du temps réel souple; (3) le développement d’un algorithme efficace de dimensionnement de ressources sous contrainte (m, k)-firm relâchée; (4) la proposition de « Double Leaks Bucket » pour la gestion active de files d'attente permettant de maintenir une QdS en cas de surcharge des réseaux / This work focuses on the scheduling algorithms under (m,k)-firm constraint, as well as the applications for QoS (quality of service) management in the networks and distributed real-time system. The research aim is to achieve the deterministic guarantee of QoS with high resource utilization. The contributions in this thesis include (1) proposing a sufficient condition for determining the schedulability of a real-time task set under Distance Base Priority scheduling algorithm; (2) defining a novel real-time constraint which relaxes the (m,k)-firm constraint and provides a more suitable modelling of soft real-time; (3) developing an effective resource provisioning algorithm under this relaxed (m,k)-firm constraint; (4) proposing an active queue management mechanism, called Double Leaks Bucket, which can guarantee the QoS with dynamic dropping of the packets during the networks overload period
388

Gravure dynamique : visualisation par modèle physique pour l'animation et les réalités virtuelles / Dynamic Engraving : Physically-based visualization for animation and virtual realities

Sillam, Kevin 14 December 2011 (has links)
Le modèle physique masses interactions est puissant pour la simulation de comportements dynamiques très divers et pour la production de mouvements expressifs, riches et d'une grande complexité. En revanche, une difficulté inhérente à ce type de formalisme pour la production d'images animées réside dans le fait que les masses ponctuelles n'ont pas de spatialité ; il est donc difficile de produire des séquences d'images animées par le rendu direct des masses ponctuelles décrivant le mouvement. D'une manière générale, il est donc nécessaire de développer des méthodes qui étendent la spatialité de ces masses ponctuelles pour compléter la chaîne de production d'images animées par modèle physique particulaire. Une méthode, proposée par le laboratoire ICA, répond à ce type de problématique en permettant d'étendre la spatialité des masses ponctuelles en considérant l'interaction physique entre ces masses et un milieu. Il s'agit d'une métaphore du procédé physique de la gravure. Celle ci a permis de produire des images animées convaincantes de divers phénomènes visuels. Nous présentons dans ce document un élargissement de cette méthode notamment au cas 3D, ainsi qu'à de nouveaux comportements. De plus, l'algorithme de cette méthode a été parallélisé, ce qui nous a permis d'obtenir des simulations calculées en temps réel en utilisant la puissance actuelle des cartes graphiques. Afin de maitriser au mieux les possibilités de la méthode, nous avons développé un logiciel comprenant une interface graphique manipulable et interactive permettant de modéliser avec aisance différents comportements. Cette méthode a été intégrée dans des installations interactives artistiques multi-sensorielles fournissant un comportement dynamique riche et configurable, tout en permettant une interaction en temps réel avec le spectateur. / Mass – Interaction physical modeling is a powerful formalism for the simulation of various dynamic behaviors and for the production of expressive, rich and complex motions. However, there is an inherent matter of this type of formalism for animation production, which resides on the fact that masses have no spatiality. Thus, it is difficult to produce animation sequences directly from rendering mass point describing the movement. It is then necessary to develop methods that extend the masses spatiality in order to complete the animation process. ICA Laboratory addressed the problem with a method based on the physical simulation of interaction between these masses and a dynamic milieu, according to the metaphor of engraving. We present in this document an extension of this method notably towards 3D and other effects. Besides, the parallel implementation on Graphic Cards (GPU) allowed obtaining real time simulation. An interactive graphical interface was also developed to facilitate the creation of different models. We used this process in multi-sensory interactive art installations for its rich and dynamic ability to create shape from motion and interact in real time with spectators.
389

Simulation 3D éléments-finis du muscle squelettique en temps-réel basée sur une approche multi-modèles / Real-time solid simulation of skeletal muscles

Berranen, Mohamed Yacine 17 December 2015 (has links)
Les résultats des chirurgies orthopédiques correctrices sont difficilement prévisibles et, malheureusement, parfois infructueux. D’autres maladies résultantes d’un handicap majeur tel que l’escarre sont encore très peu comprises. Malgré une prévalence dans la population conséquente, peu d’études ont été menées sur ces thèmes. L’étude volumétrique du muscle en tant que tissu mou actif manque d’informations détaillées. Particulièrement les déformations et raideurs subséquentes aux contractions de muscles à arrangement de fascicules complexes. La modélisation volumétrique des muscles, fournirait un outil puissant pour la simulation personnalisée des contraintes subies par le corps, durant des contactes prolongés ou récurrents avec des dispositifs médicaux standards et inadaptés à la morphologie, mais aussi la planification d’opérations chirurgicales ou de séquences de stimulation électrique fonctionnelle. Il n’existe actuellement aucun logiciel permettant la reconstruction automatique de l’architecture des fascicules, aponévroses et tendons à partir d’acquisitions IRM d’un patient spécifique. La méthode actuelle de modélisation volumétrique du muscle est coûteuse en temps de calcul, donc inefficaces pour des simulations temps-réel du comportement du système musculo-squelettique avec représentation des fonctions physiologiques. Cette thèse est dirigée par les contributions nombreuses qui restent encore à apporter dans le domaine. Les méthodes de modélisation actuelles basées sur la méthode des éléments finis classique sont complexes, manquent de flexibilité ou de précision en temps-réel. Nous proposons une approche multi-modèles basée sur le mapping barycentrique qui découple la fonction de densité d’énergie de déformations du muscle en un ensemble de modèles indépendants de moindre complexité, avec les objectifs suivants : - Améliorer la reconstruction de l’architecture musculaire à partir des acquisitions IRM en terme de complexité et flexibilité. - Séparer la modélisation du muscle en modèles simple et indépendants, de manière à offrir plus de flexibilité, en réduisant la complexité, qui permettront de découpler les résolutions des éléments déformables des éléments actifs du muscle. - En diminuant le nombre d’éléments finis garantissant la cohérence des résultats, nous diminuons le temps de calcul nécessaire à chaque pas de simulation .Nos méthodes s’inspirent des travaux précédents sur la représentation tri-dimensionnelle de la géométrie et l’architecture complexes des muscles de [Blemker and Delp, 2005]. De plus, la définition mathématique est étudiée [Chi et al., 2010] pour caractériser la densité d’énergie de déformations du muscle squelettique. En rapport avec les méthodes précédentes, nous revendiquons les avancées suivantes : - Amélioration de la représentation 3D des muscles de patients spécifiques avec architecture et géométrie complexes, à partir de mesures IRM. La méthode est plus flexible et rapide que les précédentes. - Une nouvelle méthode de modélisation des déformations musculaires via la modélisation découplée des différents tissus musculaires. Cette nouvelle approche permet une définition indépendante des fascicules musculaires, tissus conjonctifs, tendons et aponévroses en gardant une grande précision de déformations. Les performances sont confrontées au rendement de la méthode FEM classique. - Nous atteignons des vitesses de simulation élevées de muscles complexes sur des machines standards par rapport à la FEM. Les performances nous ont permis de simuler en temps-réel la force et les déformations d’un muscle d’individus spécifiques, avec une entrée d’activation actualisée en temps-réel à partir de mesures EMG. - La modélisation d’un muscle nécessite plus de compétence qu’une équipe de recherche peut envisager maitriser. L’approche multi-modèles permet un travail collaboratif, où chaque spécialiste se focalise uniquement sur son domaine de compétence. La modélisation en est extrêmement simplifiée. / Corrective orthopedic surgeries results are difficult to be predicted and, unfortunately, sometimes unsuccessful. Other diseases resulting from a motor disability as bedsores are still poorly understood, despite a significant prevalence in the population. However, studies on these topics still insufficient especially for the analysis considering the muscle as a soft tissue volumetric organ. Muscle fascicule architectures and their correlation with movement efficiency is poorly documented, it lack of the detailed information regarding its volumetric deformations and stiffness changes along with muscle contractions.Muscle volumetric modeling, would provide a powerful tool for the personalized accurate simulation of body stresses of disabled or SCI patients during prolonged or friction contacts with standard medical devices non-adapted to particular morphologies, but also the planning of surgeries or functional electrical stimulation sequences.There is currently no software for automatic reconstruction of the architecture of fascicles, aponeurosis and tendons from MRI acquisitions of a specific subject. Actual volumetric muscle modeling is expensive in computational time, and not effective for real-time simulations of musculoskeletal system behavior with representation of physiological functions. The objective of this thesis is directed by the many contributions that have yet to make in the area. The current modeling methods based on the conventional finite element method are complex, inflexible or inaccurate in real-time. We propose a multi-model based on barycentric mapping approach that decouples the muscle strain density energy function into a set of independent less complex models, with the following objectives:- Improve complex muscle architecture reconstruction from the MRI acquisitions in term of complexity and flexibility.- Split muscle modeling into simple independent models, to offer more flexibility and reducing complexity of modeling which allows to have independent resolutions between deformable elements and muscle fiber elements..- By reducing the number of finite elements ensuring consistency of results of force and deformations, we reduce the computation time required for each simulation.Our methods are inspired by the previous work on the three-dimensional representation of the geometry and the complex architecture of muscles [Blemker and Delp, 2005]. In addition, the mathematical definition is studied [Chi et al., 2010] to characterize the energy density of deformations of skeletal muscle.Related with the above methods, we demand the following advances:- Improved three-dimensional representation of specific patients with muscle architecture and complex geometry from MRI measurement for personalized modeling. The method is more flexible and faster than previous.- A novel modeling method for muscle deformation via decoupled modeling of solid and muscle fiber mechanics is established. This new modeling allowed independent definitions between deformable elements and fiber force generation elements while keeping its muscle deformation accuracy. The performance is compared to conventional FEM method. - We reach high computational speed on standard machines for muscle complex simulations compared to FEM. Real-time simulation of specific person’s muscle strain and force is performed with an activation input updated in real-time from surface EMG measures.- Muscle modeling requires interdisciplinary knowledge from different research team members. The multi-model approach allows collaborative work, where each specialist focuses only on its area of expertise thanks to the modular designed modeling.
390

Exploration robotique de l’environnement aquatique : les modèles au coeur du contrôle / Robotic exploration of the aquatic environment : Models at the core of the control

Lasbouygues, Adrien 10 December 2015 (has links)
Les robots sous-marins peuvent aujourd'hui évoluer dans des environnements complexes difficilement accessibles à l'Homme pour des raisons de coût ou de sécurité. Ils peuvent donc intervenir dans une grande variété de missions en environnement aquatique. Or, la complexité de ces milieux impose de doter le vecteur robotique d'une autonomie opérationnelle suffisante afin qu'il puisse mener sa mission à bien tout en préservant son intégrité. Cela nécessite de développer des lois de commande répondant aux spécificités de l'application. Ces lois de commande se basent sur des connaissances provenant de différentes disciplines scientifiques ce qui souligne l'interdisciplinarité inhérente à la robotique. Une fois la loi de commande développée, il faut implémenter le contrôleur sur le robot sous forme de logiciel de contrôle basé sur une architecture logicielle temps-réel.Or la conception actuelle des lois de commande, sous forme de blocs "monolithiques", rend difficile l'évolution d'une loi de commande d'une application à l'autre, l'intégration de connaissances provenant d'autres disciplines scientifiques que ne maitrisent pas forcément les automaticiens et pénalisent son implémentation sur des architectures logicielles qui nécessitent la modularité. Pour résoudre ces problèmes nous cherchons à proprement séparer les différentes connaissances afin que chacune soit aisément manipulable, son rôle clair et que les relations établies entre les différentes connaissances soient explicites. Cela permettra en outre une projection plus efficace sur l'architecture logicielle. Nous proposons donc un nouveau formalisme de description des lois de commande selon une composition modulaire d'entités de base appelées Atomes et qui encapsulent les différents éléments de connaissance. Nous nous intéressons également à l'établissement d'une meilleure synergie entre les aspects automatique et génie logiciel qui se construit autour de préoccupations communes telles que les contraintes temporelles et la stabilité. Pour cela, nous enrichissons nos Atomes de contraintes chargées de véhiculer les informations relatives à ces aspects temporels. Nous proposons également une méthodologie basée sur notre formalisme afin de guider l'implémentation de nos stratégies de commande sur un Middleware temps-réel, dans notre cas le Middleware ContrACT développé au LIRMM.Nous illustrons notre approche par diverses fonctionnalités devant être mises en oeuvre lors de missions d'exploration de l'environnement aquatique et notamment pour l'évitement de parois lors de l'exploration d'un aquifère karstique. / Underwater robots can nowadays operate in complex environments in a broad scope of missions where the use of human divers is difficult for cost or safety reasons. However the complexity of aquatic environments requires to give the robotic vector an autonomy sufficient to perform its mission while preserving its integrity. This requires to design control laws according to application requirements. They are built on knowledge from several scientific fields, underlining the interdisciplinarity inherent to robotics. Once the control law designed, it must be implemented as a control Software working on a real-time Software architecture.Nonetheless the current conception of control laws, as "monolithic" blocks, makes difficult the adaptation of a control from an application to another and the integration of knowledge from various scientific fields which are often not fully understood by control engineers. It also penalizes the implementation of control on Software architectures, at least its modularity and evolution. To solve those problems we seek a proper separation of knowledge so that each knowledge item can be easily used, its role precisely defined and we want to reify the interactions between them. Moreover this will allow us a more efficient projection on the Software architecture. We thus propose a new formalism for control laws description as a modular composition of basic entities named Atoms used to encapsulate the knowledge items.We also aim at building a better synergy between control and software engineering based on shared concerns such as temporal constraints and stability. Hence we extend the definition of our Atoms with constraints carrying information related to their temporal behaviour. We propose as well a methodology relying on our formalism to guide the implementation of control on a real-time Middleware. We will focus on the ContrACT Middleware developed at LIRMM.Finally we illustrate our approach on several robotic functionalities that can be used during aquatic environments exploration and especially for wall avoidance during the exploration of a karst aquifer.

Page generated in 0.0579 seconds