• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 7
  • 2
  • Tagged with
  • 25
  • 12
  • 12
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Algorithmes de graphes séquentiels et distribués : algorithmes paramétrés via des cliques maximales potentielles : modèle de diffusion dans une clique congestionnée / Sequential and distributed graph algorithms

Montealegre Barba, Pedro 28 February 2017 (has links)
Cette thèse porte sur des aspects structuraux et algorithmiques des graphes. Elle est divisée en deux parties, qui comportent deux études différentes : une partie sur des algorithmes centralisés-séquentiels, et une autre sur des algorithmes distribués. Dans la première partie, on étudie des aspects algorithmiques de deux structures de graphes appelés séparateurs minimaux et cliques maximales potentielles. Ces deux objets sont au coeur d'un méta-théorème dû à Fomin, Todinca and Villanger (SIAM J. Comput. 2015), qui affirme qu'une grande famille des problèmes d'optimisation peut être résolue en temps polynomial, si le graphe d'entrée contient un nombre polynomial de séparateurs minimaux. La contribution de cette partie consiste à prolonger le méta-théorème de Fomin et al. de deux manières : d'un côté, on l'adapte pour qu'il soit valide pour une plus grande famille des problèmes ; de l'autre, on étend ces résultats à des version paramétrées, pour certains paramètres des graphes. La deuxième partie de la thèse correspond à une étude du modèle appelé « Diffusion dans une Clique Congestionnée ». Dans ce modèle, les sommets d'un graphe communiquent entre eux dans des rondes synchrones, en diffusant un message de petite taille, visible par tout autre sommet. L'objectif ici est d'élaborer des protocoles qui reconnaissent des classes de graphes, en minimisant la taille des messages et le nombre de rondes. La contribution de cette partie est l'étude du rôle du hasard dans ce modèle, et la conception de protocoles pour la reconnaissance et la reconstruction des certaines classes des graphes. / This thesis is about structural and algorithmic aspects of graphs. It is divided in two parts, which are about two different studies: one part is about centralized-sequential algorithms, and the other part is about distributed algorithms. In the first part of the thesis we study algorithmic applications of two graph structures called minimal separators and potential maximal cliques. These two objects are in the core of a meta-theorem due to Fomin, Todinca and Villanger (SIAM J. Comput. 2015), which states that a large family of graph optimization problems can be solved in polynomial time, when the input is restricted to the family of graphs with polynomially many minimal separators. The contribution of this part of the thesis is to extend the meta-theorem of Fomin et al. in two ways. On one hand, we adapt it to be valid into a larger family of problems. On the other hand, we extend it into a parameterized version, for several graph parameters. In the second part of this thesis we study the broadcast congested clique model. In this model, the nodes of a graph communicate in synchronous rounds, broadcasting a message of small size visible to every other node. The goal is to design protocols that recognize graph classes minimizing the number of rounds and the message sizes. The contribution of this part is to explore the role of randomness on this model, and provide protocols for the recognition and reconstruction of some graph classes.
12

Study of an integrated pump and gas-liquid separator system and application to aero-engine lubrication systems

Gruselle, François 24 February 2012 (has links)
The subject of this PhD thesis is the development of an efficient system that can simultaneously pump and separate a gas-liquid mixture, in particular an oil-air mixture. Two-phase flows are encountered in many applications (petroleum extraction, flow in nuclear power plant pumps, pulp and paper processing, etc.) but this study is mainly focused on lubrication systems of aircraft gas turbine engines.<p><p>The pump and separator system (PASS) for two-phase flows developed in this PhD thesis aims to perform three functions simultaneously:<p>• Send back the oil to the tank (oil pumping)<p>• Separate the air from the oil (de-aeration)<p>• Separate the oil from the air (de-oiling) and release the sealing air into the atmosphere (venting). <p>Particular care is given to the liquid flow rate lost at the gas outlet of the system.<p>Consequently, it could replace the scavenge pumps and oil-air separators existing in present lubrication systems. This modification provides several advantages: simplification of the lubrication circuit, reduction of oil consumption and of the size of the lubrication system.<p><p>This research is divided into three axes: the theoretical study of the important physical mechanisms taking place inside the two-phase flow pump and separator system, the experimental development, tests and optimization of different PASS prototypes, and also the numerical simulations of the two-phase flow inside these prototypes. Although the experiments were the central pillar of this research, the three axes were closely imbricated.<p><p>The PASS design includes three main components:<p>• An inlet chamber with one or several tangential inlets giving a natural centrifugation to the flow,<p>• An impeller (forced centrifugation) with an axial and a radial part followed by a volute chamber,<p>• A metallic foam that lets pass micron and sub-micron droplets and which is followed by an axial vent port.<p><p>The centrifugation causes the liquid (oil) to move radially outwards in an annular body (a liquid ring) generating pressure. The thickness of this liquid ring inside the impeller is mainly determined by the pressure coefficient (related to the back-pressure and the rotational speed). When the back-pressure increases, the thickness of the liquid ring increases too. An advantage of the PASS is that it does not impose any relation between the liquid head and the liquid flow rate, contrary to common centrifugal pump. It self-regulates the radial position of the gas-liquid interface to sustain the operating conditions.<p><p>The de-aeration efficiency mainly depends on the pressure coefficient (for a constant liquid viscosity or temperature) or on the thickness of the liquid ring. The pressure gradient which appears in the liquid rotating in an annular body acts like a dam for the gas phase. Indeed, the gas movement is mainly determined by the pressure field (buoyancy) while the liquid distribution is dominated by centrifugal and Coriolis forces. Buoyancy tends to accumulate the gas phase near low pressure areas (PASS hub, suction side of the blades, clearances between closed impeller and casing).<p><p>The first oil-air PASS prototype produces high viscous losses due to the high peripheral velocity and liquid viscosity. Therefore, the pumping efficiency is poor compared to common impeller pumps. However, the pumping is not the key function of the PASS and a power consumption below 5 kW is acceptable for the application considered in this work. For applications that require lower power consumptions, a reduction of the rotational speed must be considered.<p><p>Thus, the rotational speed and the impeller diameter are two major constraints for the PASS design which determine the de-aeration and pumping efficiencies. The impeller diameter also influences the size of passage sections for the air flow. The air velocity must be kept as low as possible because the entrainment of droplets increases when the air velocity rises (drag forces on droplets). Indeed, this large influence of the air flow rate on the oil consumption (de-oiling efficiency) was demonstrated by a theoretical analysis, the experiments and the CFD simulations. The production of droplets in the inlet pipes when the two-phase flow is annular is a key phenomenon regarding the oil consumption.<p><p>In addition to the air flow rate, other variables also influence the oil consumption:<p>• Air-oil temperature: when the temperature rises, the oil consumption increases because the surface tension and the oil density are reduced. Moreover, as the air density also decreases, the air velocity rises.<p>• Oil flow rate: the oil consumption rises more or less linearly with the oil flow rate. However, the influence of the oil flow rate on the inlet droplet size is uncertain.<p>• Rotational speed: the rotational speed has obviously a strong impact on the oil consumption without metallic foam. However, experiments showed that the metallic foam efficiency is almost independent on the rotational speed. Therefore, the oil consumption with the Retimet foam does not depend on the PASS rotational speed.<p>• Altitude or air density: the oil consumption decreases when the air density is reduced because the drag forces on droplets also decrease.<p>The gas density (altitude) is also supposed to influence the de-aeration efficiency but this could not be tested or simulated in this work (the de-aeration efficiency gets probably better when decreasing the gas density because the buoyancy forces increase).<p><p>Theory, experiments and numerical simulations also allowed the prediction of performance of the first oil-air prototype for real in-flight operating conditions. Two problems have been identified: the de-aeration efficiency at MTO and cruise ratings and the oil leak throughout the vent in cold start and windmilling. To solve them, some modifications of the lubrication system have been suggested. With these modifications, the oil-air PASS should become very efficient and attractive for engine manufacturers. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
13

Etude structurelle et algorithmique des graphes pouvant être séparés avec des plus courts chemins / Structural and algorithmic studies of graphs can be separated using shortest paths

Diot, Emilie 08 December 2011 (has links)
Les graphes sont des objets couramment utilisés pour modéliser de nombreuses situations réelles comme des réseaux routiers, informatiques ou encore électriques. Ils permettent de résoudre des problèmes sur ces réseaux comme le routage (aller d'un sommet à un autre en suivant les arêtes du graphe) ou encore leur exploration (obtenir une carte du graphe étudié). Les réseaux étudiés, et donc les graphes qui les modélisent, peuvent être grands, c'est-à-dire avoir un très grand nombre de sommets. Dans ce cas, comme dans le cas de l'étude de grandes données en général, nous pouvons utiliser le paradigme << Diviser pour mieux régner >> pour répondre aux questions posées. En effet, en travaillant sur des petites parties du graphe et en fusionnant les résultats obtenus sur ces petites parties, on peut obtenir le résultat sur le graphe global. Dans ce document, nous présenterons une manière de décomposer les graphes en utilisant des plus courts chemins comme séparateurs. Cette décomposition permet d'obtenir, par exemple, un routage efficace, un étiquetage compacte pour pouvoir estimer les distances entre les sommets d'un graphe ou encore une navigation efficace dans les graphes<< petit monde >>. Cette méthode va nous permettre de définir de nouvelles classes de graphes. / Graphs are widely used to MODELISER a lot of real situations like road networks, computers networks or electricity ones. Using them, we can solve problems on these networks like routing (go from a vertex ti another one) or explore them (to have a map of studied graph).Studied networks, and so graphs which MODELISER them, can be large (i.e. have a lot of vertices). In this case, we can use the paradigm "Divide and conquer" to answer the questions. Indeed, working on small parts of graphs and merging the results on these small parts, we can obtain the result on the whole graph.In this document, we present a way to separate graphs using shortest paths like separators. This decomposition let to obtain a compact routing, a compact labeling to estimate the distance between vertices of the graph. This method let us to define new class of graphs.
14

Développement de nouveaux plans d'expériences uniformes adaptés à la simulation numérique en grande dimension

Santiago, Jenny 04 February 2013 (has links)
Cette thèse propose une méthodologie pour des études en simulation numérique en grande dimension. Elle se décline en différentes étapes : construction de plan d'expériences approprié, analyse de sensibilité et modélisation par surface de réponse. Les plans d'expériences adaptés à la simulation numérique sont les "Space Filling Designs", qui visent à répartir uniformément les points dans l'espace des variables d'entrée. Nous proposons l'algorithme WSP pour construire ces plans, rapidement, avec de bons critères d'uniformité, même en grande dimension. Ces travaux proposent la construction d'un plan polyvalent, qui sera utilisé pour les différentes étapes de l'étude : de l'analyse de sensibilité aux surfaces de réponse. L'analyse de sensibilité sera réalisée avec une approche innovante sur les points de ce plan, pour détecter le sous-ensemble de variables d'entrée réellement influentes. Basée sur le principe de la méthode de Morris, cette approche permet de hiérarchiser les variables d'entrée selon leurs effets. Le plan initial est ensuite "replié" dans le sous-espace des variables d'entrée les plus influentes, ce qui nécessite au préalable une étude pour vérifier l'uniformité de la répartition des points dans l'espace réduit et ainsi détecter d'éventuels amas et/ou lacunes. Ainsi, après réparation, ce plan est utilisé pour l'étape ultime : étude de surfaces de réponse. Nous avons alors choisi d'utiliser l'approche des Support Vector Regression, indépendante de la dimension et rapide dans sa mise en place. Obtenant des résultats comparables à l'approche classique (Krigeage), cette technique semble prometteuse pour étudier des phénomènes complexes en grande dimension. / This thesis proposes a methodology of study in numeric simulation for high dimensions. There are several steps in this methodology : setting up an experimental design, performing sensitivity analysis, then using response surface for modelling. In numeric simulation, we use a Space Filling Design that scatters the points in the entire domain. The construction of an experimental design in high dimensions must be efficient, with good uniformity properties. Moreover, this construction must be fast. We propose using the WSP algorithm to construct such an experimental design. This design is then used in all steps of the methodology, making it a versatile design, from sensitivity analysis to modelling. A sensitivity analysis allows identifying the influent factors. Adapting the Morris method principle, this approach classifies the inputs into three groups according to their effects. Then, the experimental design is folded over in the subspace of the influent inputs. This action can modify the uniformity properties of the experimental design by creating possible gaps and clusters. So, it is necessary to repair it by removing clusters and filling gaps. We propose a step-by-step approach to offer suitable repairing for each experimental design. Then, the repaired design is used for the final step: modelling from the response surface. We consider a Support Vector Machines method because dimension does not affect the construction. Easy to construct and with good results, similar to the results obtained by Kriging, the Support Vector Regression method is an alternative method for the study of complex phenomena in high dimensions.
15

Aide au diagnostic du cancer de la prostate par IRM multi-paramétrique : une approche par classification supervisée / Computer-aided diagnosis of prostate cancer using multi-parametric MRI : a supervised learning approach

Niaf, Émilie 10 December 2012 (has links)
Le cancer de la prostate est la deuxième cause de mortalité chez l’homme en France. L’IRM multiparamétrique est considérée comme la technique la plus prometteuse pour permettre une cartographie du cancer, ouvrant la voie au traitement focal, alternatif à la prostatectomie radicale. Néanmoins, elle reste difficile à interpréter et est sujette à une forte variabilité inter- et intra-expert, d’où la nécessité de développer des systèmes experts capables d’aider le radiologue dans son diagnostic. Nous proposons un système original d’aide au diagnostic (CAD) offrant un second avis au radiologue sur des zones suspectes pointées sur l’image. Nous évaluons notre système en nous appuyant sur une base de données clinique de 30 patients, annotées de manière fiable et exhaustive grâce à l’analyse des coupes histologiques obtenues par prostatectomie. Les performances mesurées dans des conditions cliniques auprès de 12 radiologues, sans et avec notre outil, démontrent l’apport significatif de ce CAD sur la qualité du diagnostic, la confiance des radiologues et la variabilité inter-expert. La création d’une base de corrélations anatomo-radiologiques est une tâche complexe et fastidieuse. Beaucoup d’études n’ont pas d’autre choix que de s’appuyer sur l’analyse subjective d’un radiologue expert, entâchée d’incertitude. Nous proposons un nouveau schéma de classification, basé sur l’algorithme du séparateur à vaste marge (SVM), capable d’intégrer, dans la fonction d’apprentissage, l’incertitude sur l’appartenance à une classe (ex. sain/malin) de certains échantillons de la base d’entraînement. Les résultats obtenus, tant sur des exemples simulés que sur notre base de données cliniques, démontrent le potentiel de ce nouvel algorithme, en particulier pour les applications CAD, mais aussi de manière plus générale pour toute application de machine learning s’appuyant sur un étiquetage quantitatif des données / Prostate cancer is one of the leading cause of death in France. Multi-parametric MRI is considered the most promising technique for cancer visualisation, opening the way to focal treatments as an alternative to prostatectomy. Nevertheless, its interpretation remains difficult and subject to inter- and intra-observer variability, which motivates the development of expert systems to assist radiologists in making their diagnosis. We propose an original computer-aided diagnosis system returning a malignancy score to any suspicious region outlined on MR images, which can be used as a second view by radiologists. The CAD performances are evaluated based on a clinical database of 30 patients, exhaustively and reliably annotated thanks to the histological ground truth obtained via prostatectomy. Finally, we demonstrate the influence of this system in clinical condition based on a ROC analysis involving 12 radiologists, and show a significant increase of diagnostic accuracy, rating confidence and a decrease in inter-expert variability. Building an anatomo-radiological correlation database is a complex and fastidious task, so that numerous studies base their evaluation analysis on the expertise of one experienced radiologist, which is thus doomed to contain uncertainties. We propose a new classification scheme, based on the support vector machine (SVM) algorithm, which is able to account for uncertain data during the learning step. The results obtained, both on toy examples and on our clinical database, demonstrate the potential of this new approach that can be extended to any machine learning problem relying on a probabilitic labelled dataset
16

Large scale support vector machines algorithms for visual classification / Algorithmes de SVM pour la classification d'images à grande échelle

Doan, Thanh-Nghi 07 November 2013 (has links)
Nous présentons deux contributions majeures : 1) une combinaison de plusieurs descripteurs d’images pour la classification à grande échelle, 2) des algorithmes parallèles de SVM pour la classification d’images à grande échelle. Nous proposons aussi un algorithme incrémental et parallèle de classification lorsque les données ne peuvent plus tenir en mémoire vive. / We have proposed a novel method of combination multiple of different features for image classification. For large scale learning classifiers, we have developed the parallel versions of both state-of-the-art linear and nonlinear SVMs. We have also proposed a novel algorithm to extend stochastic gradient descent SVM for large scale learning. A class of large scale incremental SVM classifiers has been developed in order to perform classification tasks on large datasets with very large number of classes and training data can not fit into memory.
17

Reconnaissance d’activités humaines à partir de séquences vidéo / Human activity recognition from video sequences

Selmi, Mouna 12 December 2014 (has links)
Cette thèse s’inscrit dans le contexte de la reconnaissance des activités à partir de séquences vidéo qui est une des préoccupations majeures dans le domaine de la vision par ordinateur. Les domaines d'application pour ces systèmes de vision sont nombreux notamment la vidéo surveillance, la recherche et l'indexation automatique de vidéos ou encore l'assistance aux personnes âgées. Cette tâche reste problématique étant donnée les grandes variations dans la manière de réaliser les activités, l'apparence de la personne et les variations des conditions d'acquisition des activités. L'objectif principal de ce travail de thèse est de proposer une méthode de reconnaissance efficace par rapport aux différents facteurs de variabilité. Les représentations basées sur les points d'intérêt ont montré leur efficacité dans les travaux d'art; elles ont été généralement couplées avec des méthodes de classification globales vue que ses primitives sont temporellement et spatialement désordonnées. Les travaux les plus récents atteignent des performances élevées en modélisant le contexte spatio-temporel des points d'intérêts par exemple certains travaux encodent le voisinage des points d'intérêt à plusieurs échelles. Nous proposons une méthode de reconnaissance des activités qui modélise explicitement l'aspect séquentiel des activités tout en exploitant la robustesse des points d'intérêts dans les conditions réelles. Nous commençons par l'extractivité des points d'intérêt dont a montré leur robustesse par rapport à l'identité de la personne par une étude tensorielle. Ces primitives sont ensuite représentées en tant qu'une séquence de sac de mots (BOW) locaux: la séquence vidéo est segmentée temporellement en utilisant la technique de fenêtre glissante et chacun des segments ainsi obtenu est représenté par BOW des points d'intérêt lui appartenant. Le premier niveau de notre système de classification séquentiel hybride consiste à appliquer les séparateurs à vaste marge (SVM) en tant que classifieur de bas niveau afin de convertir les BOWs locaux en des vecteurs de probabilités des classes d'activité. Les séquences de vecteurs de probabilité ainsi obtenues sot utilisées comme l'entrées de classifieur séquentiel conditionnel champ aléatoire caché (HCRF). Ce dernier permet de classifier d'une manière discriminante les séries temporelles tout en modélisant leurs structures internes via les états cachés. Nous avons évalué notre approche sur des bases publiques ayant des caractéristiques diverses. Les résultats atteints semblent être intéressant par rapport à celles des travaux de l'état de l'art. De plus, nous avons montré que l'utilisation de classifieur de bas niveau permet d'améliorer la performance de système de reconnaissance vue que le classifieur séquentiel HCRF traite directement des informations sémantiques des BOWs locaux, à savoir la probabilité de chacune des activités relativement au segment en question. De plus, les vecteurs de probabilités ont une dimension faible ce qui contribue à éviter le problème de sur apprentissage qui peut intervenir si la dimension de vecteur de caractéristique est plus importante que le nombre des données; ce qui le cas lorsqu'on utilise les BOWs qui sont généralement de dimension élevée. L'estimation les paramètres du HCRF dans un espace de dimension réduite permet aussi de réduire le temps d'entrainement / Human activity recognition (HAR) from video sequences is one of the major active research areas of computer vision. There are numerous application HAR systems, including video-surveillance, search and automatic indexing of videos, and the assistance of frail elderly. This task remains a challenge because of the huge variations in the way of performing activities, in the appearance of the person and in the variation of the acquisition conditions. The main objective of this thesis is to develop an efficient HAR method that is robust to different sources of variability. Approaches based on interest points have shown excellent state-of-the-art performance over the past years. They are generally related to global classification methods as these primitives are temporally and spatially disordered. More recent studies have achieved a high performance by modeling the spatial and temporal context of interest points by encoding, for instance, the neighborhood of the interest points over several scales. In this thesis, we propose a method of activity recognition based on a hybrid model Support Vector Machine - Hidden Conditional Random Field (SVM-HCRF) that models the sequential aspect of activities while exploiting the robustness of interest points in real conditions. We first extract the interest points and show their robustness with respect to the person's identity by a multilinear tensor analysis. These primitives are then represented as a sequence of local "Bags of Words" (BOW): The video is temporally fragmented using the sliding window technique and each of the segments thus obtained is represented by the BOW of interest points belonging to it. The first layer of our hybrid sequential classification system is a Support Vector Machine that converts each local BOW extracted from the video sequence into a vector of activity classes’ probabilities. The sequence of probability vectors thus obtained is used as input of the HCRF. The latter permits a discriminative classification of time series while modeling their internal structures via the hidden states. We have evaluated our approach on various human activity datasets. The results achieved are competitive with those of the current state of art. We have demonstrated, in fact, that the use of a low-level classifier (SVM) improves the performance of the recognition system since the sequential classifier HCRF directly exploits the semantic information from local BOWs, namely the probability of each activity relatively to the current local segment, rather than mere raw information from interest points. Furthermore, the probability vectors have a low-dimension which prevents significantly the risk of overfitting that can occur if the feature vector dimension is relatively high with respect to the training data size; this is precisely the case when using BOWs that generally have a very high dimension. The estimation of the HCRF parameters in a low dimension allows also to significantly reduce the duration of the HCRF training phase
18

Apprentissage statistique pour le signal: applications aux interfaces cerveau-machine

Flamary, Rémi 06 December 2011 (has links) (PDF)
Les Interfaces Cerveau-Machine (ICM) nécessitent l'utilisation de méthodes d'apprentissage statistique pour la reconnaissance de signaux. Dans cette thèse, nous proposons une approche générale permettant d'intégrer des connaissances a priori dans le processus d'apprentissage. Cette approche consiste à apprendre de manière jointe le classifieur et la représentation des données lors d'une optimisation unique. Nous nous sommes plus particulièrement intéressés à des problèmes de sélection de capteurs et proposons plusieurs termes de régularisation adaptés pour ces problèmes. Notre première contribution est une méthode d'apprentissage supervisé de filtres: le filtrage vaste marge. Un filtrage maximisant la marge entre les échantillons est appris et permet de s'adapter automatiquement aux caractéristiques des signaux tout en restant interprétable. Une application ICM et une extension 2D du filtrage a été réalisée. La seconde contribution est une méthode d'apprentissage multitâche parcimonieuse. Elle permet de sélectionner de manière jointe un ensemble de noyaux pertinents pour l'ensemble des tâches de classification. Des algorithmes efficaces ont été proposés pour résoudre le problème d'optimisation et des expérimentations numériques ont montré l'intérêt de l'approche. Finalement, la troisième contribution est une application de l'apprentissage multitâche parcimonieux sur un ensemble de jeux de données ICM. Un terme de régularisation plus général permettant de promouvoir une similarité entre classifieurs est également proposé. Les résultats numériques ont montré qu'une réduction importante du temps de calibration peut être obtenue grâce à l'apprentissage multitâche proposé.
19

Décomposition par séparateurs minimaux complets et applications

Pogorelcnik, Romain 04 December 2012 (has links) (PDF)
Nous avons utilisé la décomposition par séparateurs minimaux complets. Pour décomposer un graphe G, il est nécessaire de trouver les séparateurs minimaux dans le graphe triangulé H correspondant. Dans ce contexte, nos premiers efforts se sont tournés vers la détection de séparateurs minimaux dans un graphe triangulé. Nous avons défini une structure, que nous avons nommée 'atom tree'. Cette dernière est inspirée du 'clique tree' et permet d'obtenir et de représenter les atomes qui sont les produits de la décomposition. Lors de la manipulation de données à l'aide de treillis de Galois, nous avons remarqué que la décomposition par séparateurs minimaux permettait une approche de type 'Diviser pour régner' pour les treillis de Galois. La détection des gènes fusionnés, qui est une étape importante pour la compréhension de l'évolution des espèces, nous a permis d'appliquer nos algorithmes de détection de séparateurs minimaux complets, qui nous a permis de détecter et regrouper de manière efficace les gènes fusionnés. Une autre application biologique fut la détection de familles de gènes d'intérêts à partir de données de niveaux d'expression de gènes. La structure de 'l'atom tree' nous a permis d'avoir un bon outils de visualisation et de gérer des volumes de données importantes.
20

Smart control of a soft robotic hand prosthesis / Contrôle intelligent d’une prothèse de main robotique souple

Rubiano Fonseca, Astrid 09 December 2016 (has links)
Le sujet principal de cette thèse est le développement d’un contrôle commande intelligentpour une prothèse de main robotique avec des parties souples qui comporte: (i) uneinterface homme–machine permettant de contrôler notre prothèse, (ii) et des stratégiesde contrôle améliorant les performances de la main robotique. Notre approche tientcompte : 1. du développement d’une interaction intuitive entre l'homme et la prothèse facilitantl'utilisation de la main, d'un système d’interaction entre l’utilisateur et la mainreposant sur l'acquisition de signaux ElectroMyoGrammes superficiels (sEMG) aumoyen d'un dispositif placé sur l'avant-bras du patient. Les signaux obtenus sontensuite traités avec un algorithme basé sur l'intelligence artificielle, en vued'identifier automatiquement les mouvements désirés par le patient.2. du contrôle de la main robotique grâce à la détection du contact avec l’objet et de lathéorie du contrôle hybride.Ainsi, nous concentrons notre étude sur : (i) l’établissement d’une relation entre lemouvement du membre supérieur et les signaux sEMG, (ii) les séparateurs à vaste margepour classer les patterns obtenues à partir des signaux sEMG correspondant auxmouvements de préhension, (iii) le développement d'un système de reconnaissance depréhension à partir d'un dispositif portable MyoArmbandTM, (iv) et des stratégieshybrides de contrôle commande de force-position de notre main robotique souple. / The target of this thesis disertation is to develop a new Smart control of a soft robotic hand prosthesis for the soft robotic hand prosthesis called ProMain Hand, which is characterized by:(i) flexible interaction with grasped object, (ii) and friendly-intuitive interaction between human and robot hand. Flexible interaction results from the synergies between rigid bodies and soft bodies, and actuation mechanism. The ProMain hand has three fingers, each one is equipped with three phalanges: proximal, medial and distal. The proximal and medial are built with rigid bodies,and the distal is fabricated using a deformable material. The soft distal phalange has a new smart force sensor, which was created with the aim to detect contact and force in the fingertip, facilitating the control of the hand. The friendly intuitive human-hand interaction is developed to facilitate the hand utilization. The human-hand interaction is driven by a controller that uses the superficial electromyographic signals measured in the forearm employing a wearable device. The wearable device called MyoArmband is placed around the forearm near the elbow joint. Based on the signals transmitted by the wearable device, the beginning of the movement is automatically detected, analyzing entropy behavior of the EMG signals through artificial intelligence. Then, three selected grasping gesture are recognized with the following methodology: (i) learning patients entropy patterns from electromyographic signals captured during the execution of selected grasping gesture, (ii) performing a support vector machine classifier, using raw entropy data extracted in real time from electromyographic signals.

Page generated in 0.043 seconds