• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 328
  • 114
  • 37
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 489
  • 215
  • 173
  • 132
  • 102
  • 49
  • 48
  • 43
  • 39
  • 38
  • 36
  • 34
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

Impact de la régulation sur le financement des opérateurs de télécommunications européens : une analyse du risque systématique / Impact of regulation on the systematic risk of telecommunication operators

Chalmeau, Olivier 11 December 2015 (has links)
La thèse analyse les effets de la régulation sur le risque systématique d’un panel de 17 grands opérateurs de télécommunications européens entre 1997 et 2012. La relation régulation/risque est étudiée sous trois angles : (i) via la modification de la distribution des revenus de la firme, (ii) la promotion de l’intensité concurrentielle, et (iii) les choix de structure financière des opérateurs. Une modélisation de l’impact de la régulation sur la structure financière de la firme met en évidence que la hausse stratégique de l’endettement peut accroitre ou décroitre le risque systématique. Trois méthodologies d’estimations du risque sont utilisées : les MCO et le filtre de Kalman sans et avec effet TGARCH. Les trois aspects de la relation risque/régulation sont ensuite abordés via une étude en données de panel (couvrant les ratios financiers, l’intensité concurrentielle, l’intensité et le régime de régulation) puis en évaluant la réaction du risque aux annonces d’évolutions du cadre réglementaire européen (étude d’évènements). / The thesis analyzes the effects of regulation on the systematic risk of a panel of 17 leading European telecommunications operators between 1997 and 2012. The regulation / risk relationship is studied through: (i) the changes in the firm income distribution, (ii) the promotion of competitive intensity, and (iii) the operators' choice of financial structure. Modeling the impact of regulation on the financial structure of the firm highlights that strategic increase in debt may increase or decrease the systematic risk. Three estimation methodologies of risk are used: OLS and Kalman filter technics with and without TGARCH effect. The three aspects of risk / regulation relationship are then addressed through a panel data study (covering financial ratios, competitive intensity, and regulatory regime index) and then by an events study evaluating market reactions to announcements of changes in the European regulatory framework.
462

Étude du transport de charges dans le niobate de lithium massif et réalisation de fonctions électro-optiques dans le niobate de lithium périodiquement polarisé / Study of charge transport in bulk lithium niobate and realization of electro-optical functions in periodically poled lithium niobate

Mhaouech, Imed 24 March 2017 (has links)
Le premier volet de cette thèse est consacré à la modélisation des phénomènes de transport dans le LN. Partant d'une analyse critique des modèles de bande usuels, nous montrons leur inadéquation dans le cas du LN et nous proposons un modèle de saut basé sur la théorie des petits polarons. Nous étudions d'abord par simulation Monte-Carlo la décroissance d'une population de polarons liés NbLi4+ relaxant vers des pièges profonds FeLi3+. Nous montrons que les pièges FeLi3+ ont des rayons effectifs particulièrement grands, rayons qui augmentent encore à température décroissante, et limitent considérablement les longueurs de diffusion des polarons. Les résultats de simulations sont ensuite confrontés aux résultats expérimentaux obtenus par différentes techniques ; Absorption photo-induite, Raman, Enregistrement holographique et Pompe-sonde. Le deuxième volet de cette thèse est consacré aux applications électro-optiques dans le LN périodiquement polarisé (PPLN). Sous l’effet d’une tension électrique, l’indice de réfraction du PPLN est périodiquement diminué et augmenté, formant ainsi un réseau d’indice activable électriquement. Un premier composant utilisant l’effet électro-optique dans du PPLN a été développé et démontré expérimentalement. Dans ce composant, la lumière est défléchie sous l’effet de la tension électrique par le réseau d’indice. Ce déflecteur de Bragg atteint une efficacité de diffraction proche de 100% avec une faible tension de commande de l’ordre de 5 V. Un deuxième composant a également été proposé, où la lumière se propage perpendiculairement aux parois de domaines du PPLN. Dans cette configuration un réflecteur de Bragg électro-optique peut être réalisé / The first part of this thesis is devoted to the modeling of transport phenomena in the LN. From a critical analysis of the usual band models, we show their inadequacy in the case of LN and we propose a hopping model based on the theory of small polarons. We first study by Monte-Carlo simulation the population decay of bound polarons NbLi4+ in deep traps FeLi3+. We show that the traps (FeLi3+) have particularly large effective radii, which increase further at decreasing temperature, and considerably limit the diffusion lengths of the polarons. The results of simulations are then compared with experimental results obtained by different techniques; Light-induced absorption, Raman, Holographic storage and Pump-Probe. The second part of this thesis is devoted to electro-optical applications in the periodically poled LN (PPLN). Under the effect of an electrical voltage, the refractive index of the PPLN is periodically decreased and increased, thus forming an electrically activatable index grating. A first component using the electro-optical effect in PPLN has been developed and demonstrated experimentally. In this component, the light is deflected under the effect of the electrical voltage by the index grating. This Bragg deflector achieves a diffraction efficiency of close to 100% with a low drive voltage of the order of 5 V. A second component has also been proposed, where light propagates perpendicularly to the domain walls of the PPLN. In this configuration an electro-optic Bragg reflector can be realized
463

Contribution à la conception d'un système robotisé pour la télé-échographie / Contribution to the design of a robotized tele-echography system

Essomba, Terence 17 December 2012 (has links)
L’apparition de la télé-échographie à la fin des années 1990 a largement contribué à l’améliorationdes capacités de prise en charge des patients. Aujourd’hui, le laboratoire PRISME bénéficie d’unsavoir faire reconnu dans la conception de systèmes de télé-échographie robotisée. L’objectif deces travaux de thèse est d’apporter une contribution scientifique et technique au projet ANR-PROSIT,qui vise à la mise en oeuvre d’un robot de télé-échographie innovant. Une étude du geste du praticienen milieu clinique a été menée afin d’en déterminer les caractéristiques cinématiques. Réalisée àl’aide du système de capture de mouvement Vicon Nexus, cette analyse a contribué à l’établissementdes spécifications du futur robot. Sa structure mécanique a fait l’objet d’une attention particulière. Unearchitecture parallèle sphérique a été sélectionnée, étudiée puis optimisée via un algorithmegénétique en fonction des critères d’espace de travail, de dextérité et de compacité. L’architectureainsi obtenue est ensuite analysée sur des aspects de collisions et d’inaccessibilité. Pour le contrôlede ce robot, l’utilisation d’une interface haptique à l’aspect proche d’une sonde d’échographie estproposée. Dotée d’un système de retour d’effort et d’une centrale inertielle fiabilisée par un filtre deKalman adaptatif, cette nouvelle interface a été testée et validée par le système Vicon Nexus. / Since the end of the nineties, the tele-echography has been contributing to improve the taking carecapacities of patients. Today, the PRISME laboratory has a recognized expertise in the design ofrobotic tele-echography systems. The objective of this thesis is to provide scientific and technicalsupport to the ANR-PROSIT project. It aims to design of an innovative tele-echography robot. Anexpert gesture study has been carried out in clinical environment to determine its kinematiccharacteristics. It has been performed using the motion capture system Vicon Nexus and itcontributed to establish the specifications of the future robot. The mechanic structure of this robot hasbeen minutely taken in consideration. The spherical parallel mechanism has been selected, studiedand optimized using a genetic algorithm with respect of criterion such as workspace, dexterity andcompacity. The resulted architecture is then analyzed regarding collisions and inaccessibilityaspects. To control this robot, the use of a haptic device with the same shape of an ultrasound probeis proposed. It provides force feedback and it is instrumented with an inertial measurement unit,processed by an adaptative Kalman filter. This new interface has been tested and validated by ViconNexus system.
464

Stochastic models and methods for multi-object tracking / Méthodes et modèles stochastiques pour le suivi multi-objets

Pace, Michele 13 July 2011 (has links)
La poursuite multi-cibles a pour objet le suivi d’un ensemble de cibles mobiles à partir de données obtenues séquentiellement. Ce problème est particulièrement complexe du fait du nombre inconnu et variable de cibles, de la présence de bruit de mesure, de fausses alarmes, d’incertitude de détection et d’incertitude dans l’association de données. Les filtres PHD (Probability Hypothesis Density) constituent une nouvelle gamme de filtres adaptés à cette problématique. Ces techniques se distinguent des méthodes classiques (MHT, JPDAF, particulaire) par la modélisation de l’ensemble des cibles comme un ensemble fini aléatoire et par l’utilisation des moments de sa densité de probabilité. Dans la première partie, on s’intéresse principalement à la problématique de l’application des filtres PHD pour le filtrage multi-cibles maritime et aérien dans des scénarios réalistes et à l’étude des propriétés numériques de ces algorithmes. Dans la seconde partie, nous nous intéressons à l’étude théorique des processus de branchement liés aux équations du filtrage multi-cibles avec l’analyse des propriétés de stabilité et le comportement en temps long des semi-groupes d’intensités de branchements spatiaux. Ensuite, nous analysons les propriétés de stabilité exponentielle d’une classe d’équations à valeurs mesures que l’on rencontre dans le filtrage non-linéaire multi-cibles. Cette analyse s’applique notamment aux méthodes de type Monte Carlo séquentielles et aux algorithmes particulaires dans le cadre des filtres de Bernoulli et des filtres PHD. / The problem of multiple-object tracking consists in the recursive estimation ofthe state of several targets by using the information coming from an observation process. The objective of this thesis is to study the spatial branching processes andthe measure-valued systems arising in multi-object tracking. We focus on a class of filters called Probability Hypothesis Density (PHD) filters by first analyzing theirperformance on simulated scenarii and then by studying their properties of stabilityand convergence. The thesis is organized in two parts: the first part overviewsthe techniques proposed in the literature and introduces the Probability Hypothesis Density filter as a tractable approximation to the full multi-target Bayes filterbased on the Random Finite Sets formulation. A series of contributions concerning the numerical implementation of PHD filters are proposed as well as the analysis of their performance on realistic scenarios.The second part focuses on the theoretical aspects of the PHD recursion in the context of spatial branching processes. We establish the expression of the conditional distribution of a latent Poisson point process given an observation process and propose an alternative derivation of the PHD filter based on this result. Stability properties, long time behavior as well as the uniform convergence of a general class of stochastic filtering algorithms are discussed. Schemes to approximate the measure valued equations arising in nonlinear multi-target filtering are proposed and studied.
465

Workload- and Data-based Automated Design for a Hybrid Row-Column Storage Model and Bloom Filter-Based Query Processing for Large-Scale DICOM Data Management / Conception automatisée basée sur la charge de travail et les données pour un modèle de stockage hybride ligne-colonne et le traitement des requêtes à l’aide de filtres de Bloom pour la gestion de données DICOM à grande échelle

Nguyen, Cong-Danh 04 May 2018 (has links)
Dans le secteur des soins de santé, les données d'images médicales toujours croissantes, le développement de technologies d'imagerie, la conservation à long terme des données médicales et l'augmentation de la résolution des images entraînent une croissance considérable du volume de données. En outre, la variété des dispositifs d'acquisition et la différence de préférences des médecins ou d'autres professionnels de la santé ont conduit à une grande variété de données. Bien que la norme DICOM (Digital Imaging et Communication in Medicine) soit aujourd'hui largement adoptée pour stocker et transférer les données médicales, les données DICOM ont toujours les caractéristiques 3V du Big Data: volume élevé, grande variété et grande vélocité. En outre, il existe une variété de charges de travail, notamment le traitement transactionnel en ligne (en anglais Online Transaction Processing, abrégé en OLTP), le traitement analytique en ligne (anglais Online Analytical Processing, abrégé en OLAP) et les charges de travail mixtes. Les systèmes existants ont des limites concernant ces caractéristiques des données et des charges de travail. Dans cette thèse, nous proposons de nouvelles méthodes efficaces pour stocker et interroger des données DICOM. Nous proposons un modèle de stockage hybride des magasins de lignes et de colonnes, appelé HYTORMO, ainsi que des stratégies de stockage de données et de traitement des requêtes. Tout d'abord, HYTORMO est conçu et mis en œuvre pour être déployé sur un environnement à grande échelle afin de permettre la gestion de grandes données médicales. Deuxièmement, la stratégie de stockage de données combine l'utilisation du partitionnement vertical et un stockage hybride pour créer des configurations de stockage de données qui peuvent réduire la demande d'espace de stockage et augmenter les performances de la charge de travail. Pour réaliser une telle configuration de stockage de données, l'une des deux approches de conception de stockage de données peut être appliquée: (1) conception basée sur des experts et (2) conception automatisée. Dans la première approche, les experts créent manuellement des configurations de stockage de données en regroupant les attributs des données DICOM et en sélectionnant une disposition de stockage de données appropriée pour chaque groupe de colonnes. Dans la dernière approche, nous proposons un cadre de conception automatisé hybride, appelé HADF. HADF dépend des mesures de similarité (entre attributs) qui prennent en compte les impacts des informations spécifiques à la charge de travail et aux données pour générer automatiquement les configurations de stockage de données: Hybrid Similarity (combinaison pondérée de similarité d'accès d'attribut et de similarité de densité d'attribut) les attributs dans les groupes de colonnes; Inter-Cluster Access Similarity est utilisé pour déterminer si deux groupes de colonnes seront fusionnés ou non (pour réduire le nombre de jointures supplémentaires); et Intra-Cluster Access La similarité est appliquée pour décider si un groupe de colonnes sera stocké dans une ligne ou un magasin de colonnes. Enfin, nous proposons une stratégie de traitement des requêtes adaptée et efficace construite sur HYTORMO. Il considère l'utilisation des jointures internes et des jointures externes gauche pour empêcher la perte de données si vous utilisez uniquement des jointures internes entre des tables partitionnées verticalement. De plus, une intersection de filtres Bloom (intersection of Bloom filters, abrégé en ) est appliqué pour supprimer les données non pertinentes des tables d'entrée des opérations de jointure; cela permet de réduire les coûts d'E / S réseau. (...) / In the health care industry, the ever-increasing medical image data, the development of imaging technologies, the long-term retention of medical data and the increase of image resolution are causing a tremendous growth in data volume. In addition, the variety of acquisition devices and the difference in preferences of physicians or other health-care professionals have led to a high variety in data. Although today DICOM (Digital Imaging and Communication in Medicine) standard has been widely adopted to store and transfer the medical data, DICOM data still has the 3Vs characteristics of Big Data: high volume, high variety and high velocity. Besides, there is a variety of workloads including Online Transaction Processing (OLTP), Online Analytical Processing (OLAP) and mixed workloads. Existing systems have limitations dealing with these characteristics of data and workloads. In this thesis, we propose new efficient methods for storing and querying DICOM data. We propose a hybrid storage model of row and column stores, called HYTORMO, together with data storage and query processing strategies. First, HYTORMO is designed and implemented to be deployed on large-scale environment to make it possible to manage big medical data. Second, the data storage strategy combines the use of vertical partitioning and a hybrid store to create data storage configurations that can reduce storage space demand and increase workload performance. To achieve such a data storage configuration, one of two data storage design approaches can be applied: (1) expert-based design and (2) automated design. In the former approach, experts manually create data storage configurations by grouping attributes and selecting a suitable data layout for each column group. In the latter approach, we propose a hybrid automated design framework, called HADF. HADF depends on similarity measures (between attributes) that can take into consideration the combined impact of both workload- and data-specific information to generate data storage configurations: Hybrid Similarity (a weighted combination of Attribute Access and Density Similarity measures) is used to group the attributes into column groups; Inter-Cluster Access Similarity is used to determine whether two column groups will be merged together or not (to reduce the number of joins); and Intra-Cluster Access Similarity is applied to decide whether a column group will be stored in a row or a column store. Finally, we propose a suitable and efficient query processing strategy built on top of HYTORMO. It considers the use of both inner joins and left-outer joins. Furthermore, an Intersection Bloom filter () is applied to reduce network I/O cost.We provide experimental evaluations to validate the benefits of the proposed methods over real DICOM datasets. Experimental results show that the mixed use of both row and column stores outperforms a pure row store and a pure column store. The combined impact of both workload-and data-specific information is helpful for HADF to be able to produce good data storage configurations. Moreover, the query processing strategy with the use of the can improve the execution time of an experimental query up to 50% when compared to the case where no is applied.
466

Conception, Réalisation et Caractérisation de papiers fonctionnels pour des applications de filtrage électromagnétique / Design, Development and Characterization of functional paper for filtering electromagnetic applications

Barros, Fabien de 19 December 2011 (has links)
Le brouillard électromagnétique dans lequel nous vivons en permanence estaujourd’hui montré du doigt car, outre les risques sanitaires qu’il pourrait engendrer, illimite l’usage de certaines technologies. L’importance des interférences entre réseauxsans fil, ou la peur du piratage sur ces mêmes réseaux, en sont deux exemples. Cetravail de thèse vise à développer un nouveau moyen de protection contre certaines deces ondes électromagnétiques. Plus spécifiquement, ce travail se focalise sur unetechnologie capable de filtrer uniquement les ondes WiFi et GSM à travers de grandessurfaces d’une habitation, comme un mur. Pour ce faire, la fonctionnalisation d’uncomposant standard des bâtiments, le papier-peint, a été étudié.L’utilisation de surfaces sélectives en fréquence a été retenue. Ces motifs sontdirectement imprimés sur du papier à l’aide d’encre conductrice et de la techniqued’impression flexographique. L’étude s’est également portée sur la réalisation de motifsde filtrage innovants. Les résultats de simulation montrent qu’ils sont capables de filtrerdeux ou trois bandes, qu’ils sont quasiment insensibles à la polarisation et à l’angled’incidence dans une plage allant de 0° à ± 80°. Le travail a ensuite permis dedémontrer la faisabilité pratique de ce concept aux stades laboratoire et industriel.Ensuite, nous avons démontré expérimentalement l’efficacité de ce concept dans lesbandes WiFi. La transmission atteint alors -30 dB. Enfin, une validation expérimentaledu produit en situation réelle a été menée, à savoir la pose du papier-peint sur du plâtre,du bois, l’influence de la colle ou encore la pose d’une couche de papier-peint décoratifpar-dessus le produit.En conclusion, les résultats pratiques obtenus confirment les résultats théoriquesestimés et, permettent à ce nouveau concept, appelé métapapier, d’être suffisammentefficace pour permettre la réduction des ondes WiFi ou GSM. / The electromagnetic smog in which we live today is nowadays a real issue because it limits the use of certain technologies and also because there are some potential health risks associated with it, even if the latter is still a controversial subject. The importance of the interferences between wireless networks or the possibility of data hacking on the same networks are two examples. The aim of this thesis is to develop a new way to protect buildings against some of these electromagnetic waves. More specifically, this work focuses on a technology able to filter only the WiFi and the GSM waves through large areas of a home, like a wall for example. To do this, the functionalization of a standard component of buildings, the wallpaper, was studied. The use of frequency selective surface (FSS) was chosen. These patterns are printed directly on paper with a conductive ink printing technology: the flexography. The study also focuses on the realization of innovative filter designs. Simulation results show that these novel FSS are able to filter two or three bands. They are almost insensitive to the polarization and to the angle of incidence in the range of 0° to ±80°. The realization feasibility of this concept in a laboratory or in industrial conditions was demonstrated. Next, an experimental demonstration of this concept in the WiFi bands was carried out. In this context, the transmission coefficient was reached -30 dB. Finally, an experimental validation of the product in real conditions of use was conducted, namely the wallpaper was put over plasterboards or over wood panels. Also, the influence of the glue on the general performances and the placement of a decorative wallpaper over the FSS wallpaper were studied. In conclusion, the practical results obtained confirm and validate the theoretical predictions of this new concept, called metapaper, and show that the practical realizations are efficient enough to allow the reduction of WiFi or GSM signals.
467

Estimation de la diffusion thermique et du terme source du modèle de transport de la chaleur dans les plasmas de tokamaks. / Joint Diffusion and source term estimation in tokamak plasma heat transport.

Mechhoud, Sarah 17 December 2013 (has links)
Cette thèse porte sur l'estimation simultanée du coefficient de diffusion et du terme source régissant le modèle de transport de la température dans les plasmas chauds. Ce phénomène physique est décrit par une équation différentielle partielle (EDP) linéaire, parabolique du second-ordre et non-homogène, où le coefficient de diffusion est distribué et le coefficient de réaction est constant. Ce travail peut se présenter en deux parties. Dans la première, le problème d'estimation est traité en dimension finie ("Early lumping approach"). Dans la deuxième partie, le problème d'estimation est traité dans le cadre initial de la dimension infinie ("Late lumping approach"). Pour l'estimation en dimension finie, une fois le modèle établi, la formulation de Galerkin et la méthode d'approximation par projection sont choisies pour convertir l'EDP de transport en un système d'état linéaire, temps-variant et à entrées inconnues. Sur le modèle réduit, deux techniques dédiées à l'estimation des entrées inconnues sont choisies pour résoudre le problème. En dimension infinie, l'estimation en-ligne adaptative est adoptée pour apporter des éléments de réponse aux contraintes et limitations dues à la réduction du modèle. Des résultats de simulations sur des données réelles et simulées sont présentées dans ce mémoire. / This work deals with the diffusion and source term estimation in a heat transport model for tokamaks plasma . This phenomenon is described by a second-order linear parabolic partial differential equation (PDE) with distributed diffusion parameter and input. Both "Early lumping" and "Late lumping" approaches are considered in this thesis. First, once the heat model is chosen, the Galerkin formulation and the parameter projection method are combined to convert the PDE to a set of ordinary differential equations (ODEs). Then, two estimation methods able to give optimal estimates of the inputs are applied on the reduced model to identify simultaneously the source term and the diffusion coefficient. In the infinite dimensional method, the adaptive estimation technique is chosen in order to reconstruct "freely" the unknown parameters without the constraints due to the model reduction method. Simulation results on both simulated and real data are provided to attest the performance of the proposed methodologies.
468

Diagnostic and fault-tolerant control applied to an unmanned aerial vehicle / Diagnostic et tolérance aux fautes appliqués à un drone

Merheb, Abdel-Razzak 05 December 2016 (has links)
Les travaux de recherches sur la commande, le diagnostic et la tolérance aux défauts appliqués aux drones deviennent de plus en plus populaires. Il est judicieux de concevoir des lois de commande qui garantissent la stabilité et les performances du drone, non seulement dans le cas nominal, mais également en présence de fortes perturbations et de défauts.Dans cette thèse, un nouvel algorithme bio-inspiré adapté pour la recherche de solutions dans des problèmes d’optimisation est développé. Cet algorithme est utilisé pour trouver les gains des différents contrôleurs conçus pour les drones. La commande par mode glissant est utilisée pour développer deux contrôleurs passifs tolérants aux défauts pour les quadrirotors: un contrôleur par mode glissant augmentée avec un intégrateur, et un contrôleur par mode glissant implémenté en cascade. Parce que les commandes passives ont une robustesse réduite, une commande active par mode glissant est développée. Pour traiter les défauts extrêmes, un contrôleur d’urgence basé sur la conversion du quadrirotor en trirotor est développé. Les commandes actives, passives, et le contrôleur d’urgences sont ensuite intégrés pour former un contrôleur tolérant aux défauts capable de gérer un grand nombre de défaillances tout en garantissant les ressources actionneur et en limitant la charge de calcul du processeur. Finalement, des contrôleurs tolérants aux défauts, actifs et passifs, basés sur des méthodes par mode glissant du premier et deuxième ordre sont développées pour les octorotors. La commande active utilise des méthodes d’allocation de contrôles pour redistribuer les efforts sur les actionneurs sains, réduisant ainsi l’effet du défaut. / Unmanned Aerial Vehicles (UAV) are more and more popular for their civil and military applications. Classical control laws usually show weaknesses in the presence of parameter uncertainties, environmental disturbances, and actuator and sensor faults. Therefore, it is judicious to design a control law capable of stabilizing the UAV not only in the fault-free nominal cases, but also in the presence of disturbances and faults. In this thesis, a new bio-inspired search algorithm called Ecological Systems Algorithm (ESA) suitable for engineering optimization problems is developed. The algorithm is used over the thesis to find optimal gains for the fault tolerant controllers. Sliding Mode Control theory is used to develop two Passive Fault Tolerant Controllers for quadrotor UAVs: Regular and Cascaded SMC. Because Passive Controllers handle a few numbers of faults, an Active Sliding Mode Fault Tolerant Controller using Kalman Filter is developed. To overcome severe faults and failures, an emergency controller based on the Quadrotor-to-Trirotor conversion maneuver is developed. The Controllers developed so far (Passive, Active, and emergency controllers) are then integrated to form the Integrated Fault Tolerant Controller (IFTC). The IFTC is a powerful controller that is able to handle a wide number of faults, and save actuator resources as well as processor computational effort. Finally, Passive and Active Fault Tolerant Controllers are designed for octorotor UAVs based on First Order and Second Order Sliding Mode Control. The AFTC uses Dynamic and Pseudo-Inverse Control Allocation methods to redistribute the control effort among healthy actuators reducing the effect of fault.
469

Biopsy needles localization and tracking methods in 3d medical ultrasound with ROI-RANSAC-KALMAN / Méthodes de localisation et de suivi d’aiguille de biopsie en échographie 3D avec ROI-RANSAC-Kalman

Zhao, Yue 05 February 2014 (has links)
Dans les examens médicaux et les actes de thérapie, les techniques minimalement invasives sont de plus en plus utilisées. Des instruments comme des aiguilles de biopsie, ou des électrodes sont utilisés pour extraire des échantillons de cellules ou pour effectuer des traitements. Afin de réduire les traumatismes et de faciliter le suivi visuelle de ces interventions, des systèmes d’assistance par imagerie médicale, comme par exemple, par l’échographie 2D, sont utilisés dans la procédure chirurgicale. Nous proposons d’utiliser l’échographie 3D pour faciliter la visualisation de l’aiguille, mais en raison de l’aspect bruité de l’image ultrasonore (US) et la grande quantité de données d’un volume 3D, il est difficile de trouver l’aiguille de biopsie avec précision et de suivre sa position en temps réel. Afin de résoudre les deux principaux problèmes ci-dessus, nous avons proposé une méthode basée sur un algorithme RANSAC et un filtre de Kalman. De même l’étude est limitée à une région d’intérêt (ROI) pour obtenir une localisation robuste et le suivi de la position de l’aiguille de biopsie en temps réel. La méthode ROI-RK se compose de deux étapes: l’étape d’initialisation et l’étape de suivi. Dans la première étape, une stratégie d’initialisation d’une ROI en utilisant le filtrage de ligne à base de matrice de Hesse est mise en œuvre. Cette étape permet de réduire efficacement le bruit de granularité du volume US, et de renforcer les structures linéaires telles que des aiguilles de biopsie. Dans la deuxième étape, après l’initialisation de la ROI, un cycle de suivi commence. L’algorithme RK localise et suit l’aiguille de biopsie dans une situation dynamique. L’algorithme RANSAC est utilisé pour estimer la position des micro-outils et le filtrage de Kalman permet de mettre à jour la région d’intérêt et de corriger la localisation de l’aiguille. Une stratégie d’estimation de mouvement est également appliquée pour estimer la vitesse d’insertion de l’aiguille de biopsie. Des volumes 3D US avec un fond inhomogène ont été simulés pour vérifier les performances de la méthode ROI-RK. La méthode a été testée dans des conditions variables, telles que l’orientation d’insertion de l’aiguille par rapport à l’axe de la sonde et le niveau de contraste (CR). La précision de la localisation est de moins de 1 mm, quelle que soit la direction d’insertion de l’aiguille. Ce n’est que lorsque le CR est très faible que la méthode proposée peut échouer dans le suivi d’une structure incomplète de l’aiguille. Une autre méthode, utilisant l’algorithme RANSAC avec apprentissage automatique a été proposée. Cette méthode vise à classer les voxels en se basant non seulement sur l’intensité, mais aussi sur les caractéristiques de la structure de l’aiguille de biopsie. Les résultats des simulations montrent que l’algorithme RANSAC avec apprentissage automatique peut séparer les voxels de l’aiguille et les voxels de tissu de fond avec un CR faible. / In medical examinations and surgeries, minimally invasive technologies are getting used more and more often. Some specially designed surgical instruments, like biopsy needles, or electrodes are operated by radiologists or robotic systems and inserted in human’s body for extracting cell samples or delivering radiation therapy. To reduce the risk of tissue injury and facilitate the visual tracking, some medical vision assistance systems, as for example, ultrasound (US) systems can be used during the surgical procedure. We have proposed to use the 3D US to facilitate the visualization of the biopsy needle, however, due to the strong speckle noise of US images and the large calculation load involved as soon as 3D data are involved, it is a challenge to locate the biopsy needle accurately and to track its position in real time in 3D US. In order to solve the two main problems above, we propose a method based on the RANSAC algorithm and Kalman filter. In this method, a region of interest (ROI) has been limited to robustly localize and track the position of the biopsy needle in real time. The ROI-RK method consists of two steps: the initialization step and the tracking step. In the first step, a ROI initialization strategy using Hessian based line filter measurement is implemented. This step can efficiently reduce the speckle noise of the ultrasound volume, and enhance line-like structures as biopsy needles. In the second step, after the ROI is initialized, a tracking loop begins. The RK algorithm can robustly localize and track the biopsy needles in a dynamic situation. The RANSAC algorithm is used to estimate the position of the micro-tools and the Kalman filter helps to update the ROI and auto-correct the needle localization result. Because the ROI-RK method is involved in a dynamic situation, a motion estimation strategy is also implemented to estimate the insertion speed of the biopsy needle. 3D US volumes with inhomogeneous background have been simulated to evaluate the performance of the ROI-RK method. The method has been tested under different conditions, such as insertion orientations angles, and contrast ratio (CR). The localization accuracy is within 1 mm no matter what the insertion direction is. Only when the CR is very low, the proposed method could fail to track because of an incomplete ultrasound imaging of the needle. Another methodology, i.e. RANSAC with machine learning (ML) algorithm has been presented. This method aims at classifying the voxels not only depending on their intensities, but also using some structure features of the biopsy needle. The simulation results show that the RANSAC with ML algorithm can separate the needle voxels and background tissue voxels with low CR.
470

Etude comparative des matériaux de garnissage dans les réacteurs de filtration pour l’assainissement non collectif / Comparative study of packing materials of filtration reactors for on-site wastewater treatment

Wang, Chen 14 September 2015 (has links)
L'assainissement non collectif concerne 12 à 15 millions de personnes en France. La filière classique de ce mode d’assainissement se compose généralement d'un prétraitement anaérobie par une fosse septique recevant l’ensemble des eaux usées domestiques suivi d’un système d’infiltration dans le sol ou d’un filtre à sable. Le filtre à sable vertical drainé met à profit le pourvoir épuratoire qui est principalement lié à la présence d’une biomasse sous forme d’un biofilm. Cette dynamique de la croissance de la biomasse ou du biofilm est soumise à l’impact de la nature de matériaux filtrants. L’écoulement insaturé dans ces systèmes conditionne également cette croissance du biofilm. Dans ce contexte, l'objectif du travail de la thèse est d’appréhender les mécanismes mis en jeu et particulièrement l’impact des matériaux dans le fonctionnement des filtres en comparant notamment deux types de matériaux: les sables de rivière et les agrégats concassés. Pour cela, une étude expérimental sur une unité pilote composé des réacteurs de filtration du diamètre de 30cm et différents épaisseurs de garnissage (15, 30 et 70cm) a été construite. Les réacteurs garnis de deux sables roulés et deux agrégats concassés, sont alimentés en effluent septique avec une charge volumique 12cm/jour par 10 bâchés par jour. Suite des matériaux, une étude de la performance épuratoire avec le suivi des composants biochimiques de la biomasse totale et de la matrice extracellulaire du biofilm est réalisée en comparant notamment les deux types de matériaux filtrants. / The onsite wastewater treatment systems concern 12 to 15 million of people in France. The treatment plant is generally composed by a septic tank as pretreatment, followed by soil infiltration field or sand filtration bed. The vertical drained sand filter provides the purification capacity thanks to the presence of a biomass in form of the biofilm. The dynamic of the biomass growth or the biofilm development is under the impact of filter materials’ nature. In this context, the objective of this work is to understand the mechanisms involved and especially the impact of medium in the functioning of the filtration reactor by comparing two types of packing materials: river sands and crushed aggregates. For this purpose, an experimental study is conducted with pilot unity composed by filtration reactors of 30cm of diameter and different packing thicknesses (15, 30 and 70cm). The reactors packed with two river sands and two crushed aggregates are fed with septic effluent with a volumic hydraulic charge of 12cm/day by 10 batches per day. Based on a characterization of materials, a study of purification performance with biochemical components monitoring of the total biomass and the extracellular matrix of the biofilm is realized by comparing two types of filter materials. The purification performance has presented similar efficiencies of particulates and organic matters removals by fine river sand and fine crushed aggregate. The nitrogen pollutants removals are more effective in the fine river sand which presents the finest granulometry with an alternative of aerobic and anoxic phases along the reactor depth and with a biomass more abundant. The distribution and the quality of the total biomass and the extracellular matrix differentiate between the river sand and the crushed aggregates. As the reference material, the fine river sand presented an earlier stabilization of total biomass growth with a less important production of extracellular exudates compared to the crushed aggregates. The origin of impacts brought by the crushed aggregates might be due to the higher fine particles content which created microenvironments poor in substrates or in oxygen and also due to a more heterogeneous mineralogy. The extracellular components of highest percentage in the biofilm of crushed aggregate are polysaccharides type substances.

Page generated in 0.0291 seconds