• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 482
  • 201
  • 43
  • 2
  • Tagged with
  • 723
  • 723
  • 334
  • 329
  • 196
  • 174
  • 144
  • 126
  • 114
  • 113
  • 105
  • 88
  • 83
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
491

Localisation et cartographie simultanées par ajustement de faisceaux local : propagation d'erreurs et réduction de la dérive à l'aide d'un odomètre / Simultaneous localization and mapping by local beam adjustment : error propagation and drift reduction using an odometer

Eudes, Alexandre 14 March 2011 (has links)
Les travaux présentés ici concernent le domaine de la localisation de véhicule par vision artificielle. Dans ce contexte, la trajectoire d’une caméra et la structure3D de la scène filmée sont estimées par une méthode d’odométrie visuelle monoculaire basée sur l’ajustement de faisceaux local. Les contributions de cette thèse sont plusieurs améliorations de cette méthode. L’incertitude associée à la position estimée n’est pas fournie par la méthode d’ajustement de faisceaux local. C’est pourtant une information indispensable pour pouvoir utiliser cette position, notamment dans un système de fusion multi-sensoriel. Une étude de la propagation d’incertitude pour cette méthode d’odométrie visuelle a donc été effectuée pour obtenir un calcul d’incertitude temps réel et représentant l’erreur de manière absolue (dans le repère du début de la trajectoire). Sur de longues séquences (plusieurs kilomètres), les méthodes monoculaires de localisation sont connues pour présenter des dérives importantes dues principalement à la dérive du facteur d’échelle (non observable). Pour réduire cette dérive et améliorer la qualité de la position fournie, deux méthodes de fusion ont été développées. Ces deux améliorations permettent de rendre cette méthode monoculaire exploitable dans le cadre automobile sur de grandes distances tout en conservant les critères de temps réel nécessaire dans ce type d’application. De plus, notre approche montre l’intérêt de disposer des incertitudes et ainsi de tirer parti de l’information fournie par d’autres capteurs. / The present work is about localisation of vehicle using computer vision methods. In this context, the camera trajectory and the 3D structure of the scene is estimated by a monocular visual odometry method based on local bundle adjustment. This thesis contributions are some improvements of this method. The uncertainty of the estimated position was not provided by the local bundle adjustment method. Indeed, this uncertainty is crucial in a multi-sensorial fusion system to use optimally the estimated position. A study of the uncertainty propagation in this visual odometry method has been done and an uncertainty calculus method has been designed to comply with real time performance. By the way, monocular visual localisation methods are known to have serious drift issues on long trajectories (some kilometers). This error mainly comes from bad propagation of the scale factor. To limit this drift and improve the quality of the given position, we proposed two data fusion methods between an odometer and the visual method. Finally, the two improvements presented here allow us to use visual localisation method in real urban environment on long trajectories under real time constraints.
492

Reconnaissance d'objets en vision artificielle : application à la reconnaissance de piétons / Object recognition in machine vision : application to pedestrian recognition

Leyrit, Laetitia 22 November 2010 (has links)
Ce mémoire présente les travaux réalisés dans le cadre de ma thèse. Celle-ci a été menée dans le groupe GRAVIR (1) du LASMEA (2) au sein de l’équipe ComSee (3) qui se consacre à la vision par ordinateur. Ces travaux s’inscrivent dans le cadre d’un projet de l’Agence Nationale pour la Recherche s’intitulant « Logiciels d’Observation des Vulnérables ». Son but est de concevoir des logiciels détectant des piétons en danger et d’améliorer ainsi la sécurité routière. Ma thèse a pour but de détecter et de reconnaître les piétons dans les images. Celles-ci proviennent d’une caméra embarquée dans un véhicule circulant en milieu urbain. Ce cahier des charges implique de nombreuses contraintes. Il faut notamment obtenir un système fonctionnant en temps réel pour être capable de détecter les piétons avant un éventuel impact. De plus, ces piétons peuvent être sujets à de nombreuses variations (taille, type de vêtements...), ce qui rend la tâche de reconnaissance d’autant plus ardue. La caméra étant mobile, aucune information ne pourra être extraite du fond. Dans ma thèse, nous mettons en oeuvre différentes méthodes de vision par ordinateur, toutes basées apprentissage, qui permettent de répondre à ces attentes. Le problème se traite en deux phases. Dans un premier temps, une étape de traitement hors ligne nous permet de concevoir une méthode valide pour reconnaître des piétons. Nous faisons appel à une base d’apprentissage. Tout d’abord, un descripteur d’images est employé pour extraire des informations des images.Puis, à partir de ces informations, un classifieur est entraîné à différencier les piétons des autres objets. Nous proposons l’utilisation de trois descripteurs (ondelettes de Haar, histogrammes de gradients et descripteur binaire). Pour la classification, nous avons recours à un algorithme de Boosting (AdaBoost) et à des méthodes à noyaux (SVM, RVM, moindres carrés). Chaque méthode a été paramétrée, testée et validée, tant au niveau description d’images que classification.La meilleure association de toutes ces méthodes est également recherchée. Dans un second temps, nous développons un système embarqué temps réel, qui soit capable de détecter les piétons avant une éventuelle collision. Nous exploitons directement des images brutes en provenance de la caméra et ajoutons un module pour segmenter l’image, afin de pouvoir intégrer les méthodes de description et classification précédentes et ainsi répondre à la problématique initiale.1. acronyme de « Groupe d’Automatique, VIsion et Robotique ».2. acronyme de « LAboratoire des Sciences et Matériaux Et d’Automatique ».3. acronyme de « Computers that See ». / This thesis has been realized in the group GRAVIR (4) of the LASMEA (5) with the team Com-See (6), which works on computer vision. My research was involved in a projet of the « Agence Nationale pour la Recherche »nammed « Logiciels d’Observation des Vulnérables ». Its goal was to create softwares to detect endangered pedestrians and thus to improve road safety. My thesis aims to detect and to recognize pedestrians in images. These come from a camera embedded into a vehicle, which is driven in urban areas. These specifications involve many constraints. We have to obtain a real-time system for detect pedestrians before a possible collision. Moreover, pedestrians should be very variable (size, clothes, ...), which make the recognition more complicated. As the camera is moving, no information could be taken from the background. In my thesis, we implement several methods of computer vision, all based on a learning stage, which answer to all theses expectations. The problem is solved in two steps. Firstly, a off-line stage allows us to design a method able to recognize pedestrians. We use a learning database. First of all, an image descriptor is used to extract informations of the images.Then, from these informations, a classifior is trained to differentiate pedestrians to others objects. We suggest to use three descriptors (Haar wavelets, histograms of oriented gradients and binary descriptor). For the classification task, we use a Boosting algorithm (AdaBoost) and kernel methods (SVM, RVM, least squares). We define all the parameters, and each method - of description or classification - is then tested and validated. The best association of these methods is also searched. Secondly, we realize an embedded real-time system, which is able to detect pedestrians before a possible collision. We directly use raw images coming from the camera et add a segmentation stage, so as to insert previous description and classification méthods and thus to answer to the initial problem.4. for « Groupe d’Automatique, VIsion et Robotique ».5. for « LAboratoire des Sciences et Matériaux et d’Automatique ».6. for « Computers that See ».
493

Implémentation rigoureuse des systèmes temps-réels / Rigorous Implementation of Real-Time Systems

Abdellatif, Tesnim 05 June 2012 (has links)
Les systèmes temps-réels sont des systèmes qui sont soumis à "des contraintes de temps", comme par exemple le délais de réponse d'un système à un événement physique. Souvent les temps de réponse sont de l'ordre du milliseconde et parfois même du microseconde. Construire des systèmes temps-réels nécessite l'utilisation de méthodologies de conception et de mise en œuvre qui garantissent la propriété de respect des contraintes de temps, par exemple un système doit réagir dans les limites définies par l'utilisateur tels que les délais et la périodicité. Un délai non respecté dans systèmes temps-réel critique est catastrophique, comme par exemple dans les systèmes automobiles. Si un airbag se déclanche tard dans un accident de voiture, même quelques millisecondes trop tard peuvent conduire à des répercussions graves. Dans les systèmes temps-réels non critiques, une perte significative de performance et de QoS peuvent se produire, comme par exemple dans les réseaux de systèmes multimédia. Contribution: Nous fournissons une méthode de conception rigoureuse des systèmes temps-réel. L'implèmentation est générée à partir d'une application logicielle temps-réel et une plate-forme cible, en utilisant les deux modèles suivants: * Un modèle abstrait représentant le comportement de l'application logicielle en temps réel sous forme d' un automate temporisé. Celui-ci décrit des contraintes temporelles définies par l'utilisateur qui sont indépendantes de la plateforme. Ses transitions sont intemporelles et correspondent à l'exécution des différentes instructions de l'application. * Un modèle physique représentant le comportement du logiciel en temps réel s'exécutant sur une plate-forme donnée. Il est obtenu par l'attribution des temps d'exécution aux transitions du modèle abstrait. Une condition nécessaire pour garantir l'implémentabilité dy système est la "time-safety", c'est à dire, toute séquence d'exécution du modèle physique est également une séquence d'exécution du modèle abstrait. "Time-safety" signifie que la plate-forme est assez rapide pour répondre aux exigences de synchronisation de l'application. Comme les temps d'exécution des actions ne sont pas connus avec exactitude, "time-safety" est vérifiée pour les temps d'exécution pire cas es actions en faisant l' hypothèse de la robustesse. La robustesse signifie que la "time-safety" est préservée lorsqu'on augmente la vitesse de la plate-forme d'exécution. Pour des logiciels et plate-forme d'exécution correspondant à un modèle robuste, nous définissons un moteur d'exécution qui coordonne l'exécution du logiciel d'application afin de répondre à ses contraintes temporelles. En outre, en cas de non-robustesse, le moteur d'exécution permet de détecter les violations de contraintes temporelles en arrêtant l'exécution. Nous avons mis en place le moteur d'exécution pour les programmes BIP. Nous avons validé la méthode pour la conception et la mise en œuvre du robot Dala. Nous montrons les avantages obtenus en termes d'utilisation du processeur et l'amélioration de la latence de la réaction. / Context: Real-time systems are systems that are subject to "real-time constraints"— e.g. operational deadlines from event to system response. Often real-time response times are understood to be in the order of milliseconds and sometimes microseconds. Building real-time systems requires the use of design and implementation methodologies that ensure the property of meeting timing constraints e.g. a system has to react within user-defined bounds such as deadlines and periodicity. A missed deadline in hard real-time systems is catastrophic, like for example in automotive systems, for example if an airbag is fined too late in a car accident, even one ms too late leads to serious repercussions. In soft real-time systems it can lead to a significant loss of performance and QoS like for example in networked multimedia systems. Contribution: We provide a rigorous design and implementation method for the implementation of real-time systems. The implementation is generated from a given real-time application software and a target platform by using two models: * An abstract model representing the behavior of real-time software as a timed automaton. The latter describes user-defined platform-independent timing constraints. Its transitions are timeless and correspond to the execution of statements of the real-time software. * A physical model representing the behavior of the real-time software running on a given platform. It is obtained by assigning execution times to the transitions of the abstract model. A necessary condition for implementability is time-safety, that is, any (timed) execution sequence of the physical model is also an execution sequence of the abstract model. Time-safety means that the platform is fast enough to meet the timing requirements. As execution times of actions are not known exactly, time-safety is checked for worst-case execution times of actions by making an assumption of time-robustness: time-safety is preserved when speed of the execution platform increases. For given real-time software and execution platform corresponding to a time-robust model, we define an execution Engine that coordinates the execution of the application software so as to meet its timing constraints. Furthermore, in case of non-robustness, the execution Engine can detect violations of time-safety and stop execution. We have implemented the execution Engine for BIP programs with real-time constraints. We have validated the method for the design and implementation of the Dala rover robot. We show the benefits obtained in terms of CPU utilization and amelioration in the latency of reaction.
494

Développement de biopuces dédiées à la détection de bactéries pathogènes à faibles taux / Low Level Bacteria Detection and Quantification using SPR imaging

Bouguelia, Sihem 12 October 2012 (has links)
Détection et quantification de bactéries à faible taux par SPRi Résumé: Le protocole standard pour le diagnostic des bactéries dans le domaine médical et agro-alimentaire reste la culture microbienne, qui prend plusieurs jours pour identifier l'agent pathogène. Cependant, ces temps de latence ne sont pas compatibles avec l'urgence d'analyser rapidement la présence de bactéries pathogènes. Il ya un besoin croissant de vouloir développer de nouveaux outils pour identifier les bactéries pathogènes en un temps plus court. Afin atteindre cet objectif, la technologie de l'imagerie par Résonance des Plasmons de Surface (SPRi) a été utilisée avec succès pour la détection spécifique durant leur croissance des populations bactériennes en utilisant des protéines et/ou des anticorps comme molécule de bio reconnaissance des surfaces bactériennes. Ainsi, la détection spécifique de un à plusieurs milliers de pathogènes/ml peut être réalisé en quelques heures seulement. Dans le présent travail, plusieurs souches bactériennes ont été utilisées comme modèle : Streptococcus pneumoniae R6, Escherichia coli K12 ; ainsi que des agents pathogènes réels (Salmonella enteritidis) apportant la preuve que cette méthode peut être élargie à d'autres souches. Les résultats peuvent être quantitatifs par l'établissement d'une courbe d'étalonnage, permettant ainsi de remonter à la concentration initiale d'un échantillon contaminé. La stratégie développée au cours de ce travail se base sur le couplage simultané de la culture bactérienne et de la détection/identification spécifique, en utilisant l'imagerie SPR. Mots clés en français : Imagerie par résonance plasmonique de surface (SPRi), Streptococcus pneumoniae, E.coli K12, Salmonella enteritidis, croissance bactérienne, interactions, détection, capture, diagnostic, agro-alimentaire, pathogènes. / Low Level Bacteria Detection and Quantification using SPRi Abstract: The standard protocol for bacterial diagnosis in the medical and agronomic fields remains microbial culture, which takes several days to identify the pathogen. However, these time lags are not compatible with the urgency to rapidly analyse the presence of pathogenic bacteria. There is a strong need to develop new tools for identifying pathogenic bacteria in a shorter time. To achieve this goal, Surface Plasmon Resonance imaging (SPRi) technology has been successfully used for the specific detection of bacterial populations during their growth, using proteins and/or antibodies as bio-recognition molecules targeting bacterial surfaces. Thus, the specific detection of one to thousand pathogens/ml could be achieved within few hours. Several bacterial strains were used as models in this work: Streptococcus pneumoniae R6, Escherichia coli K12, as well as a real pathogen (Salmonella enteritidis) providing the proof that this method can be enlarged to other strains. The results can be quantitative by establishing a calibration curve, allowing extrapolation of the initial concentration of a contaminated sample. The strategy developed in this work, is based on the simultaneous coupling of the bacterial enrichment with the specific detection and identification, using the SPR imaging technique. Mots clés en anglais : Surface Plasmon Resonance imaging (SPRi), Streptococcus pneumoniae, E.coli K12, Salmonella enteritidis, bacterial growth, interactions, detection, capture, diagnosis, agri-food, pathogens.
495

Un meta-modèle de composants pour la réalisation d'applications temps-réel flexibles et modulaires / A component metamodel for the development of modular and flexible real-time applications

Rodrigues Americo, Joao Claudio 04 November 2013 (has links)
La croissante complexité du logiciel a mené les chercheurs en génie logiciel à chercher des approcher pour concevoir et projéter des nouveaux systèmes. Par exemple, l'approche des architectures orientées services (SOA) est considérée actuellement comme le moyen le plus avancé pour réaliser et intégrer rapidement des applications modulaires et flexibles. Une des principales préocuppations des solutions en génie logiciel et la réutilisation, et par conséquent, la généralité de la solution, ce qui peut empêcher son application dans des systèmes où des optimisation sont souvent utilisées, tels que les systèmes temps réels. Ainsi, créer un système temps réel est devenu très couteux. De plus, la plupart des systèmes temps réel ne beneficient pas des facilités apportées par le genie logiciel, tels que la modularité et la flexibilité. Le but de cette thèse c'est de prendre en compte ces aspects temps réel dans des solutions populaires et standards SOA pour faciliter la conception et le développement d'applications temps réel flexibles et modulaires. Cela sera fait à l'aide d'un modèle d'applications temps réel orienté composant autorisant des modifications dynamiques dans l'architecture de l'application. Le modèle de composant sera une extension au standard SCA qui intègre des attributs de qualité de service sur le consomateur et le fournisseur de services pour l'établissement d'un accord de niveau de service spécifique au temps réel. Ce modèle sera executé sur une plateforme de services OSGi, le standard de facto pour le developpement d'applications modulaires en Java. / The increase of software complexity along the years has led researchers in the software engineering field to look for approaches for conceiving and designing new systems. For instance, the service-oriented architectures approach is considered nowadays as the most advanced way to develop and integrate fastly modular and flexible applications. One of the software engineering solutions principles is re-usability, and consequently generality, which complicates its appilication in systems where optimizations are often used, like real-time systems. Thus, create real-time systems is expensive, because they must be conceived from scratch. In addition, most real-time systems do not beneficiate of the advantages which comes with software engineering approches, such as modularity and flexibility. This thesis aim to take real time aspects into account on popular and standard SOA solutions, in order to ease the design and development of modular and flexible applications. This will be done by means of a component-based real-time application model, which allows the dynamic reconfiguration of the application architecture. The component model will be an extension to the SCA standard, which integrates quality of service attributs onto the service consumer and provider in order to stablish a real-time specific service level agreement. This model will be executed on the top of a OSGi service platform, the standard de facto for development of modular applications in Java.
496

Diakoptics basée en acteurs pour la simulation, la surveillance et la comande des réseaux intelligents / Actor's based diakoptics for the simulation, monitoring and control of smart grids

Montenegro Martinez, Davis 19 November 2015 (has links)
La simulation de systèmes d'énergie est un outil important pour la conception, le développement et l'évaluation de nouvelles architectures et des contrôles grille dans le concept de réseau intelligent pour les dernières décennies. Cet outil a évolué pour répondre aux questions proposées par les chercheurs et les ingénieurs dans les applications de l'industrie, et pour offrant des différentes alternatives pour couvrir plusieurs scénarios réalistes.Aujourd'hui, en raison des progrès récents dans le matériel informatique, la Simulation numérique en temps réel (DRTS) est utilisée pour concevoir des systèmes de puissance, afin de soutenir les décisions prises dans les systèmes de gestion de l'énergie automatisés (SME) et de réduire le délai de commercialisation de produits, entre des autres applications.Les simulations de réseaux électriques peuvent être classées dans les catégories suivantes: (1) la simulation analogique (2) hors simulation de ligne (3) de simulation entièrement numérique (4) la simulation rapide (5) Contrôleur Hardware-In-the-Loop (CHIL) et (6) Puissance Hardware-In-the-Loop (PHIL).Les dernière 3 sont axés sur la simulation Real-Time hardware-in-the-Loop (HIL RT-). Ces catégories portent sur les questions liées à Transitoires électromagnétiques (liste EMT), la simulation de phaseurs ou mixte (phaseur et EMT). Comme mentionné ci-dessus, ces progrès sont possibles en raison de l'évolution des architectures informatiques (matériels et logiciels); Cependant, pour le cas particulier de l'analyse des flux de puissance des réseaux de distribution (DS), il y a encore des défis à résoudre.Les architectures informatiques actuelles sont composées de plusieurs noyaux, laissant derrière lui le paradigme de la programmation séquentielle et conduisant les développeurs de systèmes numériques pour examiner des concepts comme le parallélisme, la concurrence et les événements asynchrones. D'autre part, les méthodes pour résoudre le flux de puissance dynamique des systèmes de distribution considérer le système comme un seul bloc; ainsi, ils utilisent une seule base pour l'analyse des flux de puissance, indépendamment de l'existence de plusieurs cœurs disponibles pour améliorer les performances de la simulation.Répartis dans des procédés en phase et de la séquence, ces procédés ont en caractéristiques communes telles que l'examen d'une seule matrice creuse pour décrire les DS et qu'ils peuvent résoudre simultanément une seule fréquence.Ces caractéristiques font dès les méthodes mentionné sont pas appropriées pour le traitement avec multiple noyaux. En conséquence, les architectures informatiques actuelles sont sous-utilisés, et dégrade la performance des simulateurs lors de la manipulation de grandes DS échelle, changer DS topologie et y compris les modèles avancés, entre autres des activités de la vie réelle.Pour relever ces défis Cette thèse propose une approche appelée A-Diakoptics, qui combine la puissance de Diakoptics et le modèle de l'acteur; le but est de faire toute méthode classique d'analyse de flux d'énergie appropriée pour le traitement multithread. En conséquence, la nature et la complexité du système d'alimentation peuvent être modélisées sans affecter le temps de calcul, même si plusieurs parties du système d'alimentation fonctionnent à une fréquence de base différente comme dans le cas de micro-réseaux à courant continu. Par conséquent, l'analyse des flux de charge dynamique de DS peut être effectuée pour couvrir les besoins de simulation différents tels que la simulation hors ligne, simulation rapide, CHIL et PHIL. Cette méthode est une stratégie avancée pour simuler les systèmes de distribution à grande échelle dans des conditions déséquilibrées; couvrant les besoins de base pour la mise en œuvre d'applications de réseaux intelligents. / Simulation of power systems is an important tool for designing, developing and assessment of new grid architectures and controls within the smart grid concept for the last decades. This tool has evolved for answering the questions proposed by academic researchers and engineers in industry applications; providing different alternatives for covering several realistic scenarios. Nowadays, due to the recent advances in computing hardware, Digital Real-Time Simulation (DRTS) is used to design power systems, to support decisions made in automated Energy Management Systems (EMS) and to reduce the Time to Market of products, among other applications.Power system simulations can be classified in the following categories: (1) Analog simulation (2) off line simulation (3) Fully digital simulation (4) Fast simulation (5) Controller Hardware-In-the-Loop (CHIL) simulation and (6) Power Hardware-In-the-Loop (PHIL) simulation. The latest 3 are focused on Real-Time Hardware-In-the-Loop (RT-HIL) simulation. These categories cover issues related to Electromagnetic Transients (EMT), phasor simulation or mixed (phasor and EMT). As mentioned above, these advances are possible due to the evolution of computing architectures (hardware and software); however, for the particular case of power flow analysis of Distribution Systems (DS) there are still challenges to be solved.The current computing architectures are composed by several cores, leaving behind the paradigm of the sequential programing and leading the digital system developers to consider concepts such as parallelism, concurrency and asynchronous events. On the other hand, the methods for solving the dynamic power flow of distribution systems consider the system as a single block; thus they only use a single core for power flow analysis, regardless of the existence of multiple cores available for improving the simulation performance.Divided into phase and sequence frame methods, these methods have in common features such as considering a single sparse matrix for describing the DS and that they can solve a single frequency simultaneously. These features make of the mentioned methods non-suitable for multithread processing. As a consequence, current computer architectures are sub-used, affecting simulator's performance when handling large scale DS, changing DS topology and including advanced models, among others real life activities.To address these challenges this thesis proposes an approach called A-Diakoptics, which combines the power of Diakoptics and the Actor model; the aim is to make any conventional power flow analysis method suitable for multithread processing. As a result, the nature and complexity of the power system can be modeled without affecting the computing time, even if several parts of the power system operate at different base frequency as in the case of DC microgrids. Therefore, the dynamic load flow analysis of DS can be performed for covering different simulation needs such as off-line simulation, fast simulation, CHIL and PHIL. This method is an advanced strategy for simulating large-scale distribution systems in unbalanced conditions; covering the basic needs for the implementation of smart grid applications.
497

Parallel algorithms and data structures for interactive applications / Algoritmos Paralelos e Estruturas de Dados para Aplicações Interativas / Algorithmes et Structures de Données Parallèles pour Applications Interactives

Toss, Julio January 2017 (has links)
La quête de performance a été une constante à travers l’histoire des systèmes informatiques. Il y a plus d’une décennie maintenant, le modèle de traitement séquentiel montrait ses premiers signes d’épuisement pour satisfaire les exigences de performance. Les barrières du calcul séquentiel ont poussé à un changement de paradigme et ont établi le traitement parallèle comme standard dans les systèmes informatiques modernes. Avec l’adoption généralisée d’ordinateurs parallèles, de nombreux algorithmes et applications ont été développés pour s’adapter à ces nouvelles architectures. Cependant, dans des applications non conventionnelles, avec des exigences d’interactivité et de temps réel, la parallélisation efficace est encore un défi majeur. L’exigence de performance en temps réel apparaît, par exemple, dans les simulations interactives où le système doit prendre en compte l’entrée de l’utilisateur dans une itération de calcul de la boucle de simulation. Le même type de contrainte apparaît dans les applications d’analyse de données en continu. Par exemple, lorsque des donnes issues de capteurs de trafic ou de messages de réseaux sociaux sont produites en flux continu, le système d’analyse doit être capable de traiter ces données à la volée rapidement sur ce flux tout en conservant un budget de mémoire contrôlé La caractéristique dynamique des données soulève plusieurs problèmes de performance tel que la décomposition du problème pour le traitement en parallèle et la maintenance de la localité mémoire pour une utilisation efficace du cache. Les optimisations classiques qui reposent sur des modèles pré-calculés ou sur l’indexation statique des données ne conduisent pas aux performances souhaitées. Dans cette thèse, nous abordons les problèmes dépendants de données sur deux applications différentes : la première dans le domaine de la simulation physique interactive et la seconde sur l’analyse des données en continu. Pour le problème de simulation, nous présentons un algorithme GPU parallèle pour calculer les multiples plus courts chemins et des diagrammes de Voronoi sur un graphe en forme de grille. Pour le problème d’analyse de données en continu, nous présentons une structure de données parallélisable, basée sur des Packed Memory Arrays, pour indexer des données dynamiques géo-référencées tout en conservant une bonne localité de mémoire. / A busca por desempenho tem sido uma constante na história dos sistemas computacionais. Ha mais de uma década, o modelo de processamento sequencial já mostrava seus primeiro sinais de exaustão pare suprir a crescente exigência por performance. Houveram "barreiras"para a computação sequencial que levaram a uma mudança de paradigma e estabeleceram o processamento paralelo como padrão nos sistemas computacionais modernos. Com a adoção generalizada de computadores paralelos, novos algoritmos foram desenvolvidos e aplicações reprojetadas para se adequar às características dessas novas arquiteturas. No entanto, em aplicações menos convencionais, com características de interatividade e tempo real, alcançar paralelizações eficientes ainda representa um grande desafio. O requisito por desempenho de tempo real apresenta-se, por exemplo, em simulações interativas onde o sistema deve ser capaz de reagir às entradas do usuário dentro do tempo de uma iteração da simulação. O mesmo tipo de exigência aparece em aplicações de monitoramento de fluxos contínuos de dados (streams). Por exemplo, quando dados provenientes de sensores de tráfego ou postagens em redes sociais são produzidos em fluxo contínuo, o sistema de análise on-line deve ser capaz de processar essas informações em tempo real e ao mesmo tempo manter um consumo de memória controlada A natureza dinâmica desses dados traz diversos problemas de performance, tais como a decomposição do problema para processamento em paralelo e a manutenção da localidade de dados para uma utilização eficiente da memória cache. As estratégias de otimização tradicionais, que dependem de modelos pré-computados ou de índices estáticos sobre os dados, não atendem às exigências de performance necessárias nesses cenários. Nesta tese, abordamos os problemas dependentes de dados em dois contextos diferentes: um na área de simulações baseada em física e outro em análise de dados em fluxo contínuo. Para o problema de simulação, apresentamos um algoritmo paralelo, em GPU, para computar múltiplos caminhos mínimos e diagramas de Voronoi em um grafo com topologia de grade. Para o problema de análise de fluxos de dados, apresentamos uma estrutura de dados paralelizável, baseada em Packed Memory Arrays, para indexar dados dinâmicos geo-localizados ao passo que mantém uma boa localidade de memória. / The quest for performance has been a constant through the history of computing systems. It has been more than a decade now since the sequential processing model had shown its first signs of exhaustion to keep performance improvements. Walls to the sequential computation pushed a paradigm shift and established the parallel processing as the standard in modern computing systems. With the widespread adoption of parallel computers, many algorithms and applications have been ported to fit these new architectures. However, in unconventional applications, with interactivity and real-time requirements, achieving efficient parallelizations is still a major challenge. Real-time performance requirement shows up, for instance, in user-interactive simulations where the system must be able to react to the user’s input within a computation time-step of the simulation loop. The same kind of constraint appears in streaming data monitoring applications. For instance, when an external source of data, such as traffic sensors or social media posts, provides a continuous flow of information to be consumed by an online analysis system. The consumer system has to keep a controlled memory budget and deliver a fast processed information about the stream Common optimizations relying on pre-computed models or static index of data are not possible in these highly dynamic scenarios. The dynamic nature of the data brings up several performance issues originated from the problem decomposition for parallel processing and from the data locality maintenance for efficient cache utilization. In this thesis we address data-dependent problems on two different applications: one on physically based simulations and another on streaming data analysis. To deal with the simulation problem, we present a parallel GPU algorithm for computing multiple shortest paths and Voronoi diagrams on a grid-like graph. Our contribution to the streaming data analysis problem is a parallelizable data structure, based on packed memory arrays, for indexing dynamic geo-located data while keeping good memory locality.
498

Analyse des musiques d'informatique, vers une intégration de l'artefact : propositions théoriques et application sur Jupiter (1987) de Philippe Manoury / Computer music & musical analysis : through an integration of computer artefact. Theoretically propositions and application on Jupiter (1987) by Philippe Manoury

Larrieu, Maxence 12 January 2018 (has links)
Cette thèse questionne l'analyse des musiques d'informatique. Ces musiques sont particulières dans la mesure où elles existent avec un medium tout à fait singulier, un medium numérique, que nous désignons tout au long de nos travaux par artefact. Notre réflexion part du constat que les moyens d’appréhension de ces artefacts sont nouveaux pour la théorie de l’analyse musicale. Nous posons alors en liminaire de nos travaux la question suivante : «  comment analyser ces musiques à partir de leur artefact ? ». Notre thèse est une réponse à cette question en utilisant une pièce pionnière des années 1980, Jupiter, de Philippe Manoury, pour flûte et électronique, composée à l’Ircam avec Miller Puckette. Notre réponse se fait en trois temps. Dans un premier nous éclairons les artefacts en relevant cinq points de singularité qui leur sont propres et nous mettons en évidence un système clé dans l’étude des artefacts, le système Homme-Artefact-Son. Dans un deuxième temps nous apportons des réponses théoriques à la question. Nous montrons que les artefacts sont difficiles à saisir dans la mesure où ils se structurent en différents niveaux d’abstraction. Toute saisie doit alors se faire au sein d’un processus hautement dynamique, où des significations computationnelles, sonores et musicales se recouvrent autant que nécessaire. Un cadre conceptuel est ensuite proposé pour guider la description des artefacts. Enfin le dernier temps de notre thèse est dédié à l’analyse de Jupiter. Nous mettons en pratique les éléments de réponses que nous avons avancés. L’artefact de la pièce est entièrement démantelé et ensuite une analyse est effectuée, section par section, en confrontant l’écoute et la connaissance que nous avons acquise de l’artefact. / This thesis question the musical analysis of computer music works. These works are particular insofar as they exist with a wholly singular medium, a digital medium, which we name artifact. Our reflection starts from the ascertainment that the means needed to understand the artifact are new for the theory of musical analysis. Thereby our work begins with the following question : « how does computer music works can be analyzed with the help of their artifact ? ». Our thesis intends to answer to this question through a pioneer work from the 1980s, Jupiter, composed by Philippe Manoury at Ircam with Miller Puckette. Our answer is built in three parts. At first, we enlighten artifact by defining five points of singularity which characterize them. In the same line we identify a key system in the study of artifact, the Man Artifact Sound system. The second part is dedicated to our answer. One of the main difficulties in studying artifact is that they are structured in different levels of abstraction, and each one has its own structure. Consequently, the understanding of artifact had to be done inside a highly dynamic process, where the computational, sound and musical significations overlap as much as necessary. A conceptual framework is then suggested by which artifacts can be described, taking into account the different levels of abstraction. In the last part we put into practice those last propositions in analyzing Jupiter. His artifact is entirely dismantled and then an analysis is carried out, section by section, in confronting the listening and the knowledge we get from the artifact.
499

Modélisation anatomique utilisateur-spécifique et animation temps-réel : Application à l'apprentissage de l'anatomie / User-specific real-time registration and tracking applied to anatomy learning.

Bauer, Armelle 10 November 2016 (has links)
La complexité de l’anatomie fait de son apprentissage une tâche difficile. Au fil des années, différents supports de connaissances ont vu le jour dans le but de représenter et structurer l’anatomie : des dessins au tableau, aux livres d’anatomie, en passant par l’étape incontournable de la dissection, et des travaux pratiques sur maquettes 3d. Il est néanmoins difficile d’appréhenderla dimension dynamique de l’anatomie avec les outils d’apprentissage conventionnels ; connaissance qui est pourtant essentielle à la formation des médecins. A travers ces travaux de thèse nous proposons un système original et innovant pour l’apprentissage de l’anatomie intitulé « Living Book of Anatomy » (LBA). L’idée étant, pour un utilisateur donné, de superposer à sa propre image une maquette anatomique 3d (peau, squelette, muscles et viscères) et del’animer en mimant les mouvements de celui-ci. Nous parlons ici d’une application temps-réel de type « miroir augmenté ». Nous utilisons la Kinect comme capteur de mouvement.Le premier défi à relever est l’identification de caractéristiques morphologiques qui nous permettront de recaler notre maquette anatomique 3d sur l’utilisateur. Nous proposons ici deux technologies interchangeables en fonction des besoins. La première méthode, temps-réel, est basée sur l’utilisation de transformations affines attachées entre les repères positionnés à chaque articulation du squelette donné par la Kinect pour déformer la maquette 3d à l’aide de poids de skinning prédéfinis. La seconde méthode, plus couteuse en temps (de l’ordre de quelques minutes), se découpe en trois parties : dans un premier temps nous déformons la peau à l’aide de la position des articulations du squelette d’animation Kinect et du nuage de pointpartiel de l’utilisateur ; à partir de cela et de règles anatomiques strictes nous déformons le squelette ; pour finir nous déformons les tissus mous pour qu’ils comblent l’espace entre le squelette et la peau. Le second défi concerne la capture réaliste et temps-réel des mouvements utilisateurs. Reproduire le comportement des structures anatomiques est une tâche complexe due aux informations Kinect souvent partielles et très bruitées. Nous proposons ici l’utilisation de règles anatomiques concernant les articulations du corps (axes de rotation et butées articulaires) pour contraindre les mouvements donnés par la Kinect et obtenir des mouvements réalistes. Pour obtenir des mouvements fluides nous nous proposons d’utiliser des filtrages, notamment le filtre de Kalman. Le dernier défi concerne la dominante de retour visuel et d’interaction.Lors de ces travaux nous nous sommes tout particulièrement intéressés à un renducorps complet pour montrer le fonctionnement général du corps humain et de ces différentes articulations. Nous avons également choisi le membre inférieur comme structure anatomique d’intérêt avec pour but la mise en avant de phénomènes anatomiques spécifiques, comme l’activité musculaire.Les différents éléments ont été intégrés dans un système opérationnel présenté en détails dans ce manuscrit de thèse. Grâce à des expérimentations - avec des étudiants et des professionnels de différents domaines - et la présentation de ces travaux sous forme de démonstrations lors de différents congrès, nous avons validé cet outil / To ease the complex task of anatomy learning, there exist many ways to represent and structure anatomy : illustrations, books, cadaver dissections and 3d models. However, it is difficult to understand and analyse anatomy motion, which is essential for medicine students. We present the "Living Book of Anatomy" (LBA), an original and innovative tool to learn anatomy. For a specific user, we superimpose a 3d anatomical model (skin, skeleton, muscles and visceras) onto the user’s color map and we animate it following the user’s movements. We present a real-time mirror-like augmented reality (AR) system. A Kinect is used to capturebody motions.The first innovation of our work is the identification of the user’s body measurements to register our 3d anatomical model. We propose two different methods to register anatomy.The first one is real-time and use affine transformations attached to rigid positioned on each joint given by the Kinect body tracking skeleton in order to deform the 3d anatomical model using skinning to fit the user’s measurements.The second method needs a few minutes to register the anatomy and is divided in 3 parts : skin deformation (using Kinect body tracking skeleton and the Kinect partial point cloud), with it and strict anatomical rules we register the skeleton. Lastly we deformm the soft tissues to completly fill the space inbetween the registered skeleton and skin.Secondly, we want to capture realistically and in real-time the user’s motion. To do that we need to reproduce anatomical structure motion but it is a complex task due to the noisy and often partial Kinect data. We propose here the use of anatomical rules concerning body articulations (angular limits and degrees of freedom) to constraint Kinect captured motion in order to obtain/gain plausible motions. a kalman filter is used to smooth the obtaiined motion capture.Lastly, to embed visual style and interaction, we use a full body reproduction to show general knowledge on human anatomy and its differents joints. We also use a lower-limb as structure of interest to higlight specific anatomical phenomenon, as muscular activity.All these tools have been integrated in a working system detailed in this thesis.We validated our tool/system by presenting it as a live demo during different conferences and through user studies done with students and professionnals from different backgrounds
500

Procedural locomotion of multi-legged characters in complex dynamic environments : real-time applications / Locomotion procédurale de créatures à n-pattes dans des environnements complexes et dynamiques : vers des applications en temps réels

Abdul Karim, Ahmad 17 December 2012 (has links)
Les créatures à n-pattes, comme les quadrupèdes, les arachnides ou les reptiles, sont une partie essentielle de n’importe quelle simulation et ils participent à rendre les mondes virtuels plus crédibles et réalistes. Ces créatures à n-pattes doivent être capables de se déplacer librement vers les points d’intérêt de façon réaliste, afin d’offrir une meilleure expérience immersive aux utilisateurs. Ces animations de locomotion sont complexes en raison d’une grande variété de morphologies et de modes de déplacement. Il convient d’ajouter à cette problématique la complexité des environnements où ils naviguent. Un autre défi lors de la modélisation de tels mouvements vient de la difficulté à obtenir des données sources. Dans cette thèse nous présentons un système capable de générer de manière procédurale des animations de locomotion pour des dizaines de créatures à n-pattes, en temps réel, sans aucune donnée de mouvement préexistante. Notre système est générique et contrôlable. Il est capable d’animer des morphologies différentes, tout en adaptant les animations générées à un environnement dynamique complexe, en temps réel, ce qui donne une grande liberté de déplacement aux créatures à n-pattes simulées. De plus, notre système permet à l’utilisateur de contrôler totalement l’animation produite et donc le style de locomotion / Multi-legged characters like quadrupeds, arachnids, reptiles, etc. are an essential part of any simulation and they greatly participate in making virtual worlds more life-like. These multi-legged characters should be capable of moving freely and in a believable way in order to convey a better immersive experience for the users. But these locomotion animations are quite rich due to the complexity of the navigated environments and the variety of the animated morphologies, gaits, body sizes and proportions, etc. Another challenge when modeling such animations arises from the lack of motion data inherent to either the difficulty to obtain them or the impossibility to capture them.This thesis addresses these challenges by presenting a system capable of procedurally generating locomotion animations fordozens of multi-legged characters in real-time and without anymotion data. Our system is quite generic thanks to the chosen Procedural-Based techniques and it is capable of animating different multi-legged morphologies. On top of that, the simulated characters have more freedom while moving, as we adapt the generated animations to the dynamic complex environments in real-time. Themain focus is plausible movements that are, at the same time,believable and fully controllable. This controllability is one of the forces of our system as it gives the user the possibility to control all aspects of the generated animation thus producing the needed style of locomotion

Page generated in 0.0443 seconds