• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 8
  • 7
  • Tagged with
  • 32
  • 32
  • 15
  • 15
  • 10
  • 10
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Prédiction de gènes parallélisée de haute performance dans MATLAB

Rivard, Sylvain Robert 06 1900 (has links) (PDF)
Ce travail s’inscrit dans un cadre de recherche global du génome humain. Il s'intéresse particulièrement à l'identification de milliers de gènes qui demeurent toujours inconnus à ce jour. Afin de pouvoir effectuer cette tâche sur une plateforme informatique, les séquences d’acide désoxyribonucléique (ADN) seront traitées comme étant des signaux pour permettre l’usage des techniques en traitement numérique de signaux (TNS). Cette approche permettra de réduire les coûts et surtout, le temps que prennent les chercheurs à trouver un gène impliqué dans une maladie. Le projet est divisé en deux volets. Le premier volet de cette recherche consiste à réduire de façon importante les temps de calcul de certains algorithmes en bio-informatique. Cette recherche propose une méthode de mise en oeuvre des algorithmes de prédiction de gènes en parallèle avec le logiciel MATLAB. Les approches proposées sont basées soit sur l’algorithme de Goertzel ou de FFT en utilisant diverses procédures de parallélisme sur une unité centrale de traitement (CPU) et à une unité de processeur graphique (GPU). Les résultats montrent que l’utilisation d’une approche simple, c’est-à-dire sans modification de l’implémentation dans MATLAB, peut nécessiter plus de 4 h et demie pour le traitement de 15 millions de paires de bases (pb) alors qu’une implémentation optimisée peut effectuer la même tâche en moins d’une minute. Nous avons obtenu les meilleurs résultats avec l’implémentation sur GPU qui a pu compléter l'analyse en 57 s, ce qui est plus de 270 fois plus rapide qu’une approche conventionnelle. Ce premier volet de recherche propose deux stratégies pour accélérer le traitement des données du génome humain et s’appuie sur les différents mécanismes de parallélisation. Lorsque l'implantation se fait avec un CPU, les résultats indiquent qu'il serait préférable d'utiliser une fonction de bas niveau (MEX) afin d'augmenter la vitesse d’exécution. De plus, l'usage des boucles parallèles (PARFOR) doit être effectué dans un ordre précis pour bénéficier au maximum du parallélisme dans l’implantation de Goertzel. Lorsque l'implantation est exécutée sur le GPU, les données doivent être segmentées en plus petits blocs afin d'optimiser les temps de traitement. En effet, les blocs qui sont trop gros risquaient de dépasser la taille de la mémoire tandis que des blocs trop petits ne permettaient pas à l'usager de bénéficier pleinement du parallélisme. Dans le second volet, nous avons poursuivi avec l’implantation d’un second algorithme qui permet de cibler les régions susceptibles à la présence de gènes. Cet algorithme se base sur les hexamères qui sont de courtes séquences d’ADN composées de 6 nucléotides. De toutes les variations d’hexamères possibles (4096), seulement 40 de celles-ci se retrouvent plus souvent dans les régions codantes que non codantes. Les autres hexamères se retrouvent autant dans les introns que dans les exons. Il est donc possible de survoler les séquences d’ADN et, selon la présence ou l’absence de certains hexamères, de prédire quelles régions sont codantes. Lors de la superposition des deux approches, soit l’analyse en fréquence et l’analyse des hexamères, il est possible de mieux cibler les zones où l’on peut retrouver de nouveaux gènes. Les analyses effectuées avec les différents algorithmes présentent des valeurs qui témoignent de la probabilité de retrouver un gène dans une région donnée. Pour compléter le processus de prédiction, il est important de déterminer un critère à partir duquel le programme décide qu’il s’agit réellement d’un gène. Ce critère est basé sur trois paramètres, soient le seuil positif, le seuil négatif et taille de la fenêtre. Afin de déterminer les valeurs optimales, les trois paramètres ont été balayés et la meilleure combinaison a été identifiée. L’approche proposée dans ce mémoire permet d’analyser de grandes séquences d’ADN en peu de temps afin d’identifier des zones susceptibles de coder un gène. Ce processus est important puisqu’on estime qu’il reste encore quelques milliers de gènes inconnus qui peuvent être responsables de plusieurs maladies génétiques. Nous espérons que ce travail contribuera à la découverte de nouveaux gènes pour ainsi mieux diagnostiquer certaines maladies génétiques.
12

Conception, réalisation et évaluation d’un système interactif dédié à la réduction des risques de chutes pour les personnes atteintes de la maladie de Parkinson

Ayena, Cossoun Johannes 05 1900 (has links) (PDF)
Nos activités quotidiennes impliquent des déplacements sur différents types de sol. Pour des personnes souffrant d'un trouble d’équilibre ou de perte d'autonomie, marcher sur certains sols pourrait s’avérer difficile. Il est d’ailleurs connu que 44% des chutes surviennent en trébuchant ou en glissant sur une surface. Ainsi, en raison du risque de chute que représenteraient certains sols, le premier facteur de risque qui devrait être étudié serait le type de sol. Dans cette thèse, nous présentons l'utilisation d'une chaussure interactive pour la différenciation automatique de six types de sol qui possèdent des propriétés physiques différentes. L'analyse de leur vibration lors du coup de talon a permis de les différencier. En effet, un coup de talon au sol donne une approximation de la réponse impulsionnelle du sol, qui peut être analysée aussi bien dans le domaine temporel que fréquentiel. À partir de ces analyses, un indice permettant la différenciation a été calculé. À l'aide d'un second prototype amélioré et adapté aux tailles des pieds, des personnes atteintes de la maladie de Parkinson (PAMP) ; des personnes âgées sans cette maladie et des jeunes adultes en bonne santé ont effectué deux tests cliniques sur différents types de sol. Un indice du risque de chute en fonction des paramètres d’équilibre est également calculé. De cette deuxième expérience, nous avons conclu que le type de sol affecte grandement l’équilibre humain, les paramètres de la marche et donc le niveau du risque de chute. Dans l’objectif de normaliser les paramètres de la marche, plusieurs recherches ont démontré les effets positifs d’une stimulation auditive et/ou visuelle sur les troubles d’équilibre en particulier chez les PAMP. Cependant, dans ces travaux, peu d'études ont évalué l’effet de la stimulation vibrotactile sous la plante du pied tout en la comparant aux autres types de stimulation. Ainsi, dans une troisième partie de notre thèse, nous avons utilisé et comparé trois types de stimulation (auditive, visuelle et vibrotactile). La fréquence de la stimulation a été fixée à 10% au-dessus de la cadence calculée sur le sol ayant le plus faible risque de chute. En fonction de la cadence obtenue, le second prototype (une semelle interactive) peut activer une stimulation vibrotactile visant à améliorer la marche et le contrôle de l'équilibre. Afin d’évaluer l’effet des stimulations utilisées sur le niveau du risque de chute sur un sol, nous avons comparé ces derniers résultats (avec stimulation) avec ceux obtenus dans la deuxième expérimentation (sans stimulation). Nos résultats suggèrent qu'une stimulation appropriée pourrait contribuer à la réduction d’un niveau du risque de chute sur un sol. Nous avons trouvé une différence significative et une diminution des risques de chutes calculés pour la plupart des types de sol en particulier pour les sols déformables qui peuvent faire chuter une personne présentant un trouble de la marche ou en perte d'autonomie. Our daily activities imply displacements on different types of soil. For people with a balance disorder or losing functional autonomy, walking on some types of soil could be difficult. It is known that 44% of falls occur by stumbling or sliding on a surface. Thus, due to the risk of falling of some soils, the first risk factor that should be studied would be the type of soil. In this thesis, we present the use of an interactive shoe for the automatic differentiation of six types of soil with different physical properties. The analysis of their vibration during the heel strike allows differentiating them. Indeed, a heel strike on the soil gives an approximation of the impulse response of the soil, which can be analyzed both in the temporal and frequency domain. From these analyzes, an index allowing differentiation was computed. Using a second improved prototype adapted to the size of the feet, people with Parkinson's disease (PD); the elderly without this disease and healthy young people carried out two clinical tests on different types of soil. An index of the risk of falling as a function of the gait parameters is also computed. From this second experiment, we concluded that the types of soil greatly affect the human balance, the walking parameters and therefore the level of risk of falling. To regulate walking and balance parameters, several studies have demonstrated the positive effects of auditory and/or visual stimulation on balance disorders, particularly in PD participants. However, in these works, few studies have evaluated the effect of vibrotactile stimulation under the sole of the foot while comparing it with other types of stimulation. Thus, in a third part of our thesis, we used and compared three types of stimulation (auditory, visual and vibrotactile). The frequency of stimulation was set at 10% above the cadence evaluated on the soil with the lowest risk of falling. Based on this cadence, the second prototype (an interactive insole) could activate a vibrotactile stimulation to improve walking and balance control. To evaluate the effect of the stimulations on the level of risk of falling over the soil, we compared these results (with stimulation) with those obtained in the second experiment (without stimulation). Our results suggest that an appropriate stimulation may contribute to reducing the risk of falling on soil. We found a significant difference and reduction in the risk of falls computed for most types of soil, particularly for deformable soils that can lead a person with a walking disorder or losing functional autonomy to fall.
13

Conception, réalisation et étude d'un dispositif d'évaluation des risques de déséquilibre lors de la marche

Ben Brahem, Mahmoud 05 1900 (has links) (PDF)
La dégradation du contrôle postural observée avec l’âge est en partie responsable du problème d’équilibre chez les ainés, essentiellement pendant la marche. En effet, une perte progressive du tonus postural génère une démarche irrégulière, et augmente, par conséquent, le risque de chute [5]. L’état de santé des personnes âgées se trouve considérablement affecté après une chute et conduit souvent à l’hospitalisation et par la suite à l’isolement. Cela constitue une grande préoccupation, pour elles, pour leur entourage et la société. Le risque de chute est également plus important dans certaines pathologies chroniques comme la maladie de Parkinson et les différentes Ataxies [6, 7]. Ce risque dépend de facteurs intrinsèques liés à des problèmes de santé (déficience visuelle, une diminution de la mobilité des membres inférieurs, la dégradation proprioceptive et les troubles cognitifs [9], troubles d’origine médicamenteuse), et de facteurs extrinsèques liés à l’environnement (faible luminosité, conditions climatiques particulières, et les sols glissants ou déformables) [10]. Le sol étant un facteur de risque externe majeur, il s’avère crucial d’évaluer le niveau de risques de chute en fonction des propriétés physiques des sols (dureté, déformation, et adhérence), et en fonction de leur composition (béton, terre, parquet, sable, et le gravier). La première approche pour pallier les chutes consiste à intervenir en urgence pour les prendre en charge. Mais ceci ne réduit pas les conséquences souvent dramatiques qui en découlent. La deuxième approche vise à réduire la probabilité d’occurrence et idéalement les éliminer. Les tests classiques utilisés pour l’évaluation de l’équilibre d’une personne comme celui du Berg Balance Scale ou du TUG « Test de la chaise chronométré » sont subjectifs [11]. En revanche les mesures réalisées par les capteurs de mouvement positionnés sur le corps sont objectives et complètent par conséquent les tests classiques. Les tests cliniques utilisés pour l’évaluation des risques de chute comme le TUG soit le « Test de la chaise chronométré » ont récemment été améliorés par l’introduction d’instrumentations, spécialement des capteurs portés sur le corps (iTUG). Mais l’évaluation par le TUG instrumenté (iTUG) ne prend pas en considération la capacité de mesure sur des types de sols différents [12]. Ce projet de recherche a donc comme objectif de développer un dispositif mécatronique portable qui permettra de mesurer les risques de chute lors des activités quotidiennes. Il s’agit d’un appareil simple d’utilisation et non invasif, équipé d’une centrale inertielle et de capteurs. Sa fonction principale sera d’évaluer les différents facteurs sélectionnés pour le calcul d’un risque de chute. À cet effet, nous présenterons, une nouvelle méthodologie d’évaluation des risques de chute basée sur la mesure quantitative des paramètres de la démarche en vue d’améliorer le test TUG instrumenté. Le dispositif de mesure proposé sera développé en considérant différents types de sols susceptibles d’avoir un impact sur la démarche humaine. Ainsi il est prévu que, la simulation d’un environnement réel de la marche améliore grandement la capacité de différencier les niveaux de risque par une évaluation quantitative des paramètres quantitativement les paramètres intrinsèques à la démarche. Ce dispositif peut aussi mesurer les paramètres environnementaux comme la température, l’humidité et la pression atmosphérique pour une meilleure évaluation au quotidien des risques de chute. La méthode privilégiée et employée dans ces travaux de recherche est celle de la logique floue permettant d’établir une gamme de niveaux de risques différentiables. L’objectif final de ce dispositif sera de transmettre, en fonction du temps et de manière fiable, un message tactile lorsqu’un risque est détecté, cependant cela ne sera pas abordé dans ces travaux de recherche.
14

Conception et évaluation d'un instrument de mesure pour la détection des postures et des mouvements contraignants menant à l’apparition des troubles musculosquelettiques en milieu de travail à l'aide de réseaux de neurones

Barkallah, Eya 10 1900 (has links) (PDF)
Notre projet de recherche consiste à détecter des postures et des mouvements contraignants menant à l’apparition des troubles musculo-squelettiques en milieu de travail. Ce problème de détection a été considéré comme étant un problème de classification supervisée dont le classificateur est un réseau de neurones et les classes sont les différentes postures et mouvements adoptés par un opérateur lors de la réalisation de ses tâches quotidiennes en milieu de travail. Un problème de classification supervisée se réalise en général en trois étapes : 1) l’étape de l’acquisition des signaux, 2) celle du prétraitement, et enfin, 3) celle de la classification. À la première étape, l’acquisition des signaux consiste à mesurer les postures et les mouvements de l’opérateur à l’aide d’un instrument de mesure non-invasif, non-intrusif capable de fonctionner dans son milieu de travail in-situ. L’étape de prétraitement consiste à réduire les signaux acquis à un ensemble de caractéristiques permettant de bien distinguer entre les différentes classes. Pour recueillir les caractéristiques, nous avons utilisé une méthode directe, qui regroupe les caractéristiques globales du déplacement du centre de pression utilisées généralement dans les études de posturologie et d’autres caractéristiques relatives aux accélérations de la tête. Nous avons également proposé une nouvelle méthode, dite graphique qui consiste à discrétiser la surface de la semelle sur laquelle le centre de pression se déplace. D’autre part, afin de réduire le nombre de ces caractéristiques et n’en retenir que les plus pertinentes, nous avons mis en place un nouveau modèle hybride de sélection des caractéristiques dont la singularité réside dans la combinaison de techniques utilisées. Enfin, lors de l’étape de classification, il s’agit d’utiliser les caractéristiques retenues à l’étape de prétraitement comme entrées pour le réseau de neurones. Les résultats de classification obtenus à la fin sont de 95% avec 11 caractéristiques (huit (8) provenant de la méthode directe et trois (3) de la méthode graphique). Bien qu’utilisées seules, les caractéristiques de la méthode graphique ne nous donnent pas les meilleurs résultats de classification (près de 60%), en les ajoutant aux caractéristiques de la méthode directe, le taux de reconnaissance est passé de 90% à 95%. Sans l’étape de réduction de dimensionnalité, nous n’aurions pas pu dépasser un taux de reconnaissance de 70% avec seulement huit (8) caractéristiques de la méthode directe. Enfin, nous avions également développé nos propres fonctions de validation croisée et de sélection de caractéristiques sur MatLAB, ce qui a nettement amélioré nos résultats, en passant de 85% (comme étant le meilleur taux de classification obtenu), à 95% à l’aide de nos propres fonctions.
15

Procédés de mise à l’échelle pour la fabrication et la caractérisation de biocapteurs de graphène à effet de champ

Bencherif, Amira 08 1900 (has links)
Alors que la découverte de matériaux conducteurs de faible dimension fait progresser la mi- niaturisation des composants électroniques, les transistors à effet de champ (FET) peuvent désormais incorporer des éléments à molécule unique comme canal ou grille. Ces petites architectures permettent, entre autres, l’étude de molécules uniques, notamment par l’ob- servation de leur dynamique de repliement-dépliement ou de liaison. Ces études ont été principalement réalisées avec des transistors à effet de champ à base de matériaux unidimen- sionnels (1D) tels que les nanotubes de carbone (CNT) ou les nanofils de silicium. Du fait de leur dimensionnalité réduite, ces matériaux offrent un bon contrôle de leur interaction avec les molécules 0D, et donc de leur intégration au circuit. Cependant, ces matériaux 1D présentent des problèmes de reproductibilité et de mise à l’échelle, du fait qu’ils sont difficiles à croître et/ou à assembler dans les dispositifs FET. Cette thèse s’intéresse à l’utilisation d’un matériau carboné à deux dimensions, le gra- phène, comme alternative pour la fabrication de dispositifs pour l’étude de dynamiques de molécules uniques. En effet, le graphène est un matériau à deux dimensions composé d’un ré- seau hexagonal d’atomes de carbone, avec une excellente conductivité électrique ainsi qu’une chimie à base de carbone permettant l’ancrage de molécules biologiques à sa surface, ce qui en fait un candidat de choix pour la détection électrique de molécules individuelles. Sa di- mensionnalité est aussi compatible avec des procédés de microfabrication à grande échelle, ce qui offre la possibilité d’études statistiques sur de grands nombres de dispositifs. Ainsi, la détection de molécules biologiques utilisant des transistors à effet de champs à base de graphène (GFET) a connu un développement et un engouement important au cours de la dernière décennie, mais plusieurs aspects restent à résoudre, notamment la mise à l’échelle de la fabrication, le contrôle de la chimie de fonctionnalisation, et la miniaturisation du canal à l’échelle de la molécule unique. Dans cette thèse, des contributions sur ces trois aspects sont présentées. Premièrement, je décris une méthode de mise à l’échelle du transfert de graphène dans une optique d’indus- trialisation, par la conception et l’implémentation d’un montage de transfert de graphène permettant l’automatisation et l’augmentation du rendement de la fabrication de GFET. Je m’intéresse ensuite à la fonctionnalisation des dispositifs de graphène avec une molécule d’ancrage communément utilisée dans le cas des biodétecteurs basés sur des GFET, afin de révéler les cinétiques associées à l’adsorption et à l’accumulation de la molécule à la surface du graphène. Enfin le dernier chapitre décrit la conception d’une architecture de GFET pour l’accueil d’une molécule unique d’ADN, basée sur des nanoconstrictions mises en place dans le canal de graphène. Ces constrictions ont été obtenues à l’aide de la lithographie par faisceau d’électrons (EBL) et gravure ionique réactive profonde (DRIE), qui nous permet de modeler des structures à haute résolution de quelques dizaines de nanomètres dans le canal de graphène. Des nanopuits perpendiculaires à la constriction sont par la suite ouverts dans de la résine, favorisant le confinement de la chimie d’immobilisation de la molécule unique en un seul point. J’explore ensuite la liaison d’un brin unique d’ADN sur la nanoconstriction, et l’étude dynamique de son repliement. Cette thèse présente donc des résultats innovants en termes d’architectures et de procédés de mise à l’échelle de GFET à des fins de biodétection. / With the discovery of low-dimensional conductive materials advancing the miniaturization of electronic components, field-effect transistors (FET) can now incorporate single-molecule elements as a channel or gate. Among their applications, these small architectures allow single-molecule studies, for instance by observing their folding-unfolding or binding dy- namics. These studies were mainly carried out with field-effect transistors based on one- dimensional (1D) materials such as carbon nanotubes (CNT) or silicon nanowires (SiNW). Due to their reduced dimensionality, these materials offer good control on their interaction with 0D molecules, and therefore of their integration into the circuit. However, these 1D materials present reproducibility and scaling issues, due to the fact that they are difficult to grow and/or assemble in FET devices. This thesis focuses on the use of a two-dimensional carbon-based material, graphene, as an alternative for the fabrication of devices for studying the dynamics of single molecules. Graphene is a hexagonal network of carbon atoms that offers an excellent electrical conduc- tivity as well as a carbon-based chemistry for anchoring biological molecules on its surface, this makes it a prime candidate for the electrical detection of individual molecules. Above all, its dimensionality is compatible with large-scale microfabrication processes, which offer the possibility of statistical studies on a large number of devices. Thus, the detection of biological molecules using graphene-based field-effect transistors (GFET) has experienced significant development over the past decade, but several aspects remain to be resolved, including scale- up of the manufacturing, control of the functionalization chemistry, and miniaturization of the channel at the single molecule scale. In this thesis, I present contributions on these three aspects. First, I describe a method for scaling up graphene transfer in an industrialization perspective, by designing and implementing a graphene transfer setup allowing automation for increasing the yield of GFET fabrication. I then focus on the functionalization dynamics of graphene devices with an anchor molecule named PBASE (1-Pyrenebutyric acid N-hydroxysuccinimide ester) commonly used in the case of GFET-based biosensors, which reveals the adsorption and accumulation kinetics of the molecule on the graphene surface. Finally, I describe the design of a GFET architecture based on nanoconstrictions implemented in the graphene channel, designed to host a single molecule. These constrictions were obtained using electron beam lithography (EBL) and deep reactive ion etching (DRIE), which allows the modeling of high-resolution features of a few nanometers in the graphene channel. Nanowells were opened in the resin perpendicular to the constriction, promoting single-point, single-molecule chemistry. I then explore the immobilization of a single strand of DNA on nanoconstriction, and the dynamic study of its folding. This thesis therefore presents innovative results in terms of architectures and scaled implementation processes of GFET for biodetection purposes.
16

Développement et validation de sondes en fibre optique miniaturisées pour le guidage intra-opératoire d’interventions intraoculaires

Abid, Alexandre 03 1900 (has links)
Les procédures chirurgicales intraoculaires sont des procédures difficiles par la précision qu’elles demandent, on parle de microchirurgie, mais aussi par la difficulté et la faible qualité de visualisation des tissus à traiter. En effet, dans la plupart des procédures intraoculaires le chirurgien utilise uniquement un microscope ophtalmologique qui ne permet la visualisation des tissus que par la pupille du patient et offre une perception limitée de la profondeur. La Tomographie en Cohérence Optique (OCT) fournit des images en profondeur des tissus sains de manière non invasive, elle est utilisée couramment en diagnostic ophtalmologique et est de plus en plus utilisée intra-opérativement. Dans cette thèse nous allons présenter deux systèmes OCT intra-opératifs qui visent à assister les chirurgiens sur deux procédures intraoculaires, la vitrectomie et l’injection sous-rétinienne. Pour ces deux projets nous avons utilisé le matériel chirurgical utilisé cliniquement pour plusieurs raisons : s’assurer d’utiliser des outils adéquats (dimensions, efficacité, sécurité) pour la procédure, garder des outils que les chirurgiens utilisent régulièrement et avec lesquels ils sont familiers et limiter les coûts de développement. Pour le système OCT nous avons utilisé des sondes OCT en fibre optique car elles sont flexibles, bon marché et de petit diamètre. Leur focalisation peut également être modifiée dépendamment de l’application avec une fibre optique GRIN à leur extrémité pour augmenter le signal OCT. Nous avons ainsi attaché à ces outils chirurgicaux des sondes OCT en fibre optique. Pour le projet portant sur les injections sous-rétiniennes il a fallu dans un premier temps développer des sondes OCT avec des diamètres plus petits que ceux existant. Pour ce faire nous avons développé une méthode permettant de réduire le diamètre des sondes avec de l’acide fluorhydrique et grâce à un design permettant de conserver les propriétés optiques des sondes. Ce travail est présenté dans le premier article. Le second article présente un système permettant de guider les injections sous-rétiniennes. L’injection sous-rétinienne est une intervention chirurgicale de haute précision visant à restaurer et/ou préserver la vision des patients souffrant de maladies rétiniennes. Néanmoins, l’injection sous-rétinienne reste à la limite des capacités physiologiques humaines en raison des tremblements de la main et peut être compromise par le reflux du médicament si l’injection n’est pas assez profonde dans la rétine. Nous avons développé un système pour guider l’injection avec un micromanipulateur et donner des informations précises sur la profondeur au chirurgien avec l’OCT intra-opératif. Après avoir miniaturisé une sonde OCT en fibre optique avec la méthode présentée dans l’article 1 nous avons pu l’insérer dans une canule utilisée cliniquement. La sonde couplée à un système OCT que nous avons développé acquiert un signal A-scan qui va permettre de connaitre la distance entre la canule et la rétine mais aussi de sélectionner la profondeur de l’injection dans les couches rétiniennes. La canule est attachée à un micromanipulateur qui assure son déplacement dans l’œil. Une image M-scan est construite avec le signal OCT et le chirurgien peut directement sélectionner sur l’image la profondeur de l’injection. Nous avons développé l’interface sur Labview. Après avoir sélectionné la cible de l’injection le programme de guidage va déplacer la canule et injecter le volume adéquat grâce à une pompe contrôlable. Nous avons validé notre système de guidage sur des yeux de porcs ex-vivo. Sur 40 injections 38 présentaient un décollement rétinien ciblé et localisé, preuve de la réussie de l’injection rétinienne ce qui représente un taux de succès de 95% (CI : 83.1 – 99.4). Nous avons aussi grâce à un algorithme de traitement de l’image calculé le volume présent sous la rétine après l’injection que nous avons comparé au volume injecté. Nous avons ainsi trouvé que 75% du volume initialement injecté se retrouve bien sous la rétine. Le troisième article présente un système permettant d’arrêter automatiquement le vitrecteur lors d’une vitrectomie pour réduire les dommages accidentels sur la rétine. La survenue de déchirures rétiniennes iatrogèniques dans la vitrectomie par la pars plane est une complication qui compromet l’efficacité globale de la chirurgie. Un certain nombre de déchirures rétiniennes iatrogènes se produisent lorsque la rétine est coupée accidentellement par le vitrecteur. Nous avons développé un vitrecteur intelligent capable de détecter en temps réel une coupure rétinienne accidentelle et de désactiver rapidement la machine de vitrectomie pour les prévenir. Ce vitrecteur intelligent est composé d’une sonde OCT attachée au vitrecteur et va avoir comme rôle de détecter si le vitrecteur aspire la rétine et va endommager ces tissus sains. La sonde OCT agit comme un détecteur de présence devant l’ouverture du vitrecteur, ceci en comparant un signal de référence avec le signal en direct. Cette comparaison de signal OCT va commander un bras robotique pour actionner la pédale d’arrêt du vitrecteur. Ainsi le chirurgien n’a pas besoin d’interpréter un signal, la décision d’arrêt du vitrecteur dû à la présence de la rétine est prise automatiquement. Ceci va permettre de réduire grandement, de 300 ms à 29 ms, le délai de la prise de décision d’arrêt du vitrecteur précédemment limité par le temps de réaction du chirurgien. Nous avons développé les sondes OCT, le système OCT ainsi que l’algorithme d’arrêt automatique de ce système. Nous avons validé sur des yeux porcins in-vivo, deux chirurgiens ont utilisé notre système en essayant d’endommager les tissus rétiniens. 70% (CI : 56.39 – 82.02) des tentatives de dommages rétiniens des chirurgiens furent atténuées ou empêchées par notre système. Ce projet a abouti au dépôt d’un brevet ("Smart Vitrector", Provisional patent application, US 63109040). / Intraocular surgical procedures are difficult procedures because of the precision they require, they are often referred as microsurgery, but also by the little information available to the surgeon. In most intraocular procedures the surgeon only uses an ophthalmic microscope which allows visualization of tissue just through the patient’s pupil and offers limited depth perception. Optical Coherence Tomography (OCT) provides in-depth images of healthy tissue in a non-invasive manner, is commonly used in ophthalmologic diagnostics, and is increasingly used intraoperatively. In this thesis we will present two intraoperative OCT systems that aim to assist surgeons with two intraocular procedures, vitrectomy and subretinal injection. For these two projects we used the surgical equipment used clinically for several reasons : to make sure to use adequate tools (dimensions, efficiency, safety) for the procedure, to keep tools that surgeons use regularly and with which they are familiar and limit development costs. For the OCT system we used fiber optic OCT probes as they are flexible, cheap and small in diameter. Their focus can also be modified, depending the application, with a GRIN fiber at their tip to increase the OCT signal. We have attached optical fiber OCT probes to these surgical tools. For the subretinal injections project it was first necessary to develop OCT probes with smaller diameters than existing ones. To do this, we have developed a method to reduce the diameter of the probes with hydrofluoric acid and a design to maintain the optical properties of the probes. This work is presented in the first article. The second article presents a system for guiding subretinal injections. Subretinal injection of drugs is a challenging surgical intervention aiming to restore and/or preserve the vision of patients suffering from retinal diseases. Nevertheless, the subretinal injection remains at the edge of human physiological capacity because of hand tremor and can be mitigated by drug reflux if the injection is not deep enough in the retina. We developed a system to guide the injection with a micromanipulator and give precise depth information to the surgeon with intraoperative OCT. To do so we first miniaturized an optical fiber OCT probe with the method presented in article 1, we were able to insert it into a cannula used clinically. The probe coupled to an OCT system that we have developed acquires an A-scan signal which enables to know the distance between the cannula and the retina but also to select the depth of the injection into the retinal layers. The cannula is attached to a micromanipulator that moves it inside the eye. An M-scan image is built with the OCT signal and the surgeon can directly select on the image the depth of the injection. We developed the interface on Labview. After selecting the injection target, the guidance program will move the cannula and inject the appropriate volume using a controllable pump.We have validated our guidance system on pig eyes ex-vivo. Out of 40 injections, 38 presented a retinal detachment, proof of a successful retinal injection, which represents a success rate of 95% (CI : 83.1 – 99.4). Thanks to an image processing algorithm, we also calculated the bleb volume under the retina after the injection, which we compared to the initial injected volume. We have found that 75% of the injected volume ends in the subretinal space. The third article presents for automatically stopping the vitrector during a vitrectomy. The occurrence of iatrogenic retinal breaks in pars plana vitrectomy is a complication that compromises the overall efficacy of the surgery. A subset of iatrogenic retinal break occurs when the retina is cut accidentally by the vitrector. We developed a smart vitrector that can detect in real-time potential accidental retinal cut and activate promptly a vitrectomy machine to prevent them. To do so an OCT probe is attached to the vitrector and will have the role of detecting if the vitrector sucks the retina and will damage these healthy tissues. The OCT probe acts as a presence detector in front of the vitrector opening, by comparing a reference signal with the live signal. This OCT signal comparison will control a robotic arm to operate the vitrector stop pedal. Thus, the surgeon does not need to interpret a signal, the decision to stop the vitrector due to the presence of the retina is taken automatically. This will greatly reduce, from 300 ms to 29 ms, the delay to stop the vitrector previously limited by the reaction time of the surgeon. We have developed the OCT probes, the OCT system, and the automatic shutdown algorithm for this system. We validated our system on in-vivo porcine eyes, two surgeons used the modified vitrector trying to damage retinal tissue. 70% (CI : 56.39 – 82.02) of surgeons’ retinal damage attempts were mitigated or prevented by our system. This project resulted in a patent ("Smart Vitrector", Provisional patent application, US 63109040).
17

Application de l'analyse quantitative des images au cyto-diagnostic des cancers du col de l'utérus

Kulker, Anna 15 December 1986 (has links) (PDF)
Etude du diagnostic des lésions prémalignes du col de l'utérus, fondée sur l'utilisation d'un système automatique d'analyse des frottis vaginaux: le système LEYTAS (Leyden Television Analysis System). Plusieurs paramètres nucléaires ont été mesurés en utilisant le système SAMBA. Le taux actuel de faux positifs commis par le système LEYTAS peut être réduit fortement en utilisant des paramètres nucléaires, tels que la densité optique moyenne et des paramètres de texture nucléaire
18

étude de la symétrie bilatérale en imagerie cérébrale volumique

Prima, Sylvain 07 March 2001 (has links) (PDF)
Le cerveau humain est une structure anatomique à symétrie bilatérale : il existe un plan, appelé plan médian sagittal, par rapport auquel il est (approximativement) symétrique. Certaines structures ou aires cérébrales sont pourtant systématiquement asymétriques. L'étude de ces asymétries et de leurs anomalies est d'un intérêt majeur pour la compréhension de certaines pathologies comme la schizophrénie. Dans cette thèse, nous présentons une méthode permettant de quantifier ces déviations locales par rapport à une symétrie bilatérale parfaite et d'en effectuer une analyse statistique dans des populations de sujets. En raison du positionnement arbitraire de la tête dans l'appareil d'acquisition, le plan médian sagittal est rarement situé au centre des images médicales tridimensionnelles anatomiques (IRM, scanner) ou fonctionnelles (TESP, TEP). Nous proposons une définition objective de ce plan, fondée sur un critère mathématique robuste de type moindres carrés tamisés. Ensuite, après calcul et réalignement du plan médian sagittal, nous montrons comment obtenir en chaque point de l'image un vecteur caractéristique de l'asymétrie de la structure anatomique sous-jacente. Ce champ d'asymétrie est obtenu au moyen d'un outil de recalage non-rigide, qui est également utilisé pour fusionner dans un référentiel géométrique commun les champs calculés sur une population d'individus. Des techniques statistiques classiques (de type test de Hotteling) permettent alors d'étudier l'asymétrie d'une population ou de comparer l'asymétrie entre deux populations. Un problème spécifique aux IRM est celui des variations lentes des intensités de l'image, induites par les interactions du sujet avec le champ magnétique, et qui ne reflétent pas les propriétés physiques des tissus sous-jacents. La structure géométrique de ce champ de biais est elle-même asymétrique, et perturbe substantiellement le calcul de l'asymétrie anatomique. Nous proposons différents algorithmes pour corriger ce biais, fondés sur des modélisations mathématiques du processus d'acquisition de l'image.
19

Bringing 3D and quantitative data in flexible endoscopy

Mertens, Benjamin 10 July 2014 (has links)
In a near future, the computation power will be widely used in endoscopy rooms. It will enable the augmented reality already implemented in some surgery. Before reaching this, a preliminary step is the development of a 3D reconstruction endoscope. In addition to that, endoscopists suffer from a lack of quantitative data to evaluate dimensions and distances, notably for the polyp size measurement.<p>In this thesis, a contribution to more a robust 3D reconstruction endoscopic device is proposed. Structured light technique is used and implemented using a diffractive optical element. Two patterns are developed and compared: the first is based on the spatial-neighbourhood coding strategy, the second on the direct-coding strategy. The latter is implemented on a diffractive optical element and used in an endoscopic 3D reconstruction device. It is tested in several conditions and shows excellent quantitative results but the robustness against bad visual conditions (occlusions, liquids, specular reflection,) must be improved. <p>Based on this technology, an endoscopic ruler is developed. It is dedicated to answer endoscopists lack of measurement system. The pattern is simplified to a single line to be more robust. Quantitative data show a sub-pixel accuracy and the device is robust in all tested cases. The system has then been validated with a gastroenterologist to measure polyps. Compared to literature in this field, this device performs better and is more accurate. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
20

Elaboration and characterization of PET-Hemp fiber composites for thermoforming applications

Fotso Talla, Aimé Sylvain 04 1900 (has links) (PDF)
An elaboration and characterization of the composites of polyethylene terephthalate (PET) reinforced with hemp fiber for thermoforming applications deal with significant challenges faced by the bio-composite industry vis-à-vis high temperature melting thermoplastics reinforced with vegetal fibers. The originality of this work includes processing such composite material while avoiding thermal degradation and using the resultant composite which is normally brittle for thermoforming, based on large deformations. Most of the previous works have only involved low temperature melting thermoplastics reinforced with natural fibers although high temperature melting thermoplastics have an important potential in numerous applications. During the past decades, the volume and types of natural fibers used as reinforcements for bio-composites applications have increased significantly. Such trend has been particularly observed in the group of vegetal fiber-reinforced composites, also known as ligno-cellulosic fiber-reinforced composites, which are found in construction, automobile, aerospace and bio-medicine to name a few. However, those applications are for the most part either made of polyolefin matrices or polymers whose highest melting points are close to 200°C. Despite its high melting point, Polyethylene terephthalate (PET), similar to other polyesters and highly polar matrices, shows good affinity for reinforcement by ligno-cellulosic or vegetal fibers such as hemp. This work aimed at achieving a dual objective: First to extend the elaboration of ligno-cellulosic fiber-reinforced composite materials to the range of higher temperature melting thermoplastics (Tm>200°C) and secondly to study the thermoformability of the processed PET-hemp fiber composites in order to determine the optimal formulation for thermoforming, as well as its optimal conditions. In the plastic industry, the thermoforming process is essentially based on heating extruded sheets to a temperature between the glass transition temperature (Tg) and the melting point, where large deformations occur. Both objectives are quite challenging: For the first objective, there is a risk of hemp fiber degradation due to the temperature gap between the melting point of PET (Tm~250°C) and the onset of thermal degradation of vegetal fibers (Td~190˚C) and concerning the second objective, thermoforming requires large deformations although bio-composites are generally brittle. The mentioned challenges were strategically overcome by modifying both the matrix and the fibers. Furthermore, five formulations with 1, 5, 10, 15 and 20% (w/w) fiber concentrations were investigated for their mechanical, thermal, structural and rheological properties; the best formulation was selected for numerical thermoforming. The fibers were modified by alkaline treatment to increase their thermal stability, while PET’s melting point was depressed by a ten of degree by compounding with polycaprolactone (PCL) using a torque based mixer. The numerical thermoforming was finally performed by an optimized application of the ThermoForm© code to the previously determined composite parameters. The following major observations were made in different sections of this research. The mechanical properties of PET-hemp fiber composites showed similar variations with those of other natural fiber reinforced composite materials reported in the literature. •In the presence of the applicable additives such as pyromellitic dianhydride (PMDA), glycidyl methacrylate (GMA) and clay, the elastic modulus of PET-5% (w/w) PCL-Additives increased by 10 to 20% with respect to the unreinforced formulation and 2 to 10% with respect to the reinforced formulation without additives. However, all the formulations were significantly brittle and their strain at break decreased from over 40 to about 4%. Their maximum force was also lowered by up to 4% with respect to virgin PET. •In the absence of additives, the elastic modulus and the maximum force of PET-5% (w/w) PCL-5% (w/w) - (1, 5, 10, 15 and 20% (w/w)) hemp fibers increased logarithmically with the fiber concentration, while the strain at break dropped below 5%. An improved interface quality without additives is an indication of the possible hydrogen bonding between the carbonyl groups of PET and the hydroxyl groups of hemp fibers. The remaining investigation was then performed without additives. All the composite formulations proved to be thermally stable until 315°C as an indication for their ability to undergo multistage processing. Two thermo-degradation ranges were observed from 290 to 385°C and from 385 to 490°C respectively. They were respectively described by the Sestak-Berggren and the truncated Sestak-Berggren models. Similar observations were made for the formulations compounded with the mixing chamber heated at 240, 250 and 250°C. Consequently, the numerical thermoforming process was restricted to the group compounded at 250°C. The rheological properties fitted with the ThermoForm® code indicated the suitability of the Christensen model to describe the visco-elastic behavior of the investigated composite formulations. The numerical variations of various forming parameters indicated a partition of the formulations into two groups reinforced by 0, 1 and 5% (w/w) for the first, and 10 and 15% (w/w) for the second. The first group was better suited for both the free forming and the thermoforming process. However, a more powerful air flow is needed for forming of PET -1% (w/w) hemp, leaving PET-5% (w/w) hemp as the best thermoformable alternative with respect to the process cost and in-service performance. The second group showed a relatively poor performance which can be attributed to the fiber’s partial thermo-degradation resulting from processing larger fiber volume with respect to the limited available matrix. Although PET-hemp fiber composites have been successfully formulated and their behavior towards the thermoforming process numerically investigated, a fine tuning of the processing conditions will be the object of future work alongside the valorization of higher fiber loads through targeted applications requiring woven reinforcements. L’élaboration et la caractérisation des composites de polyéthylène téréphtalate (PET) renforcés de fibres de chanvre pour des applications en thermoformage adresse des défis majeurs auxquels est confrontée l’industrie des bio-composites concernant le renforcement des polymères ayant des hauts points de fusion avec des fibres d’origine végétale. La contribution originale de ce travail a un impact significatif sur l’industrie des plastiques. En outre il concerne le renforcement d’un polymère thermoplastique ayant un point de fusion élevé avec des fibres naturelles tout en évitant la thermo-dégradation, et procède à la mise en forme du produit qui est normalement cassant, par le thermoformage basé sur les grandes déformations. Durant les dernières décennies, on a assisté à une augmentation significative du volume et des types de fibre naturelle comme renforts des bio-composites utilisés dans divers secteurs d’activité. L’on retrouve les composites dont les renforts sont des fibres naturelles, encore appelés bio-composites dans divers domaines à l’exemple de la construction, la biomédecine, l’aérospatial, et l’automobile; cependant ces applications sont pour la plupart soit restreints aux matrices de type polyoléfine ou des polymères dont le point de fusion maximal est proche de 200°C. Le PET, tout comme d’autres matrices de type polyester ou de grande polarité ayant des hauts points de fusion, présente une plus haute affinité de renfort avec des fibres lignocellulosiques ou fibres naturelles à l’exemple des fibres de chanvre. Ce travail vise deux objectifs principaux, à savoir étendre l’élaboration des matériaux bio-composites au groupe de matrices qui fondent à haute température (Tm>200°C), ensuite faire une mise en œuvre des applications de ce type de composite par thermoformage. Le thermoformage des plastiques-composites est un procédé de mise en forme basé essentiellement sur le chauffage des feuilles extrudées entre le point de transition vitreuse (Tg) et le point de fusion, suivi d’une grande déformation. Les deux objectifs présentent beaucoup de défis, à savoir dans un cas éviter la dégradation thermique des fibres de chanvre causée par la différence entre le point de fusion du PET (Tm~250°C) et la température initiale de dégradation des fibres naturelles (Td~190°C), et faire le thermoformage d’un matériau cassant alors que le processus est basé sur les grandes déformations. Les défis rencontrés ont été stratégiquement relevés en combinant la modification des fibres et de la matrice. Ensuite, des formulations de composites renforcés de 1, 5, 10, 15 et 20% (w/w) de fibres ont été mises en forme, testées au point de vue mécanique, thermique, structural, et rhéologique. La stabilité thermique des fibres a été améliorée par traitement alcalin et la température de fusion du PET a été abaissée d’une dizaine de degré par mélange avec le polycaprolactone (PCL) dans un mélangeur à torque. Finalement, le thermoformage numérique a été réalisé en appliquant le code ThermoForm® aux paramètres des composites déterminés initialement. Les observations suivantes ont été faites dans diverses sections de cette recherche. Les variations des propriétés mécaniques des composites de PET renforcés de fibres de chanvre sont similaires aux comportements d’autres composites renforcés de fibres naturelles que l’on trouve dans la littérature. • En présence des additifs tels que le dianhydride pyromellitique (PMDA), le méthacrylate de glycidyle (GMA) et l’argile, le module d’élasticité de PET-5% (w/w) PCL-Additifs augmente de 10 à 20 % par rapport à la formulation sans renfort et de 2 à 10% par rapport à la formulation renforcée sans additifs. Cependant, toutes ces formulations étaient fragiles et leur déformation à la rupture réduite en passant de plus de 40% à 4%. Leur force maximale a aussi connu une réduction de près de 4% par rapport au PET vierge. • En l’absence des éléments additifs, le module d’élasticité et la charge maximale supportée par les formulations de PET-5% (w/w) PCL- Additifs - (1, 5, 10, 15 et 20% (w/w)) augmentent de façon logarithmique avec le taux de renfort, alors que la déformation à la rupture a été rabaissée jusqu’à une valeur maintenue au-dessous de 5%. L’interface qui en résulte présente une qualité améliorée en absence des additifs, ce qui indique la possibilité d’existence des liaisons d’hydrogène entre les groupements carbonyles du PET/PCL et les fonctions hydroxydes des fibres de chanvre. Le reste de l’étude a ainsi été réalisé sur les formulations sans additifs. Toutes les formulations de PET renforcées de fibres de chanvre étaient thermiquement stables jusqu’à 315°C, ce qui est une indication de leur aptitude au moulage à plusieurs étapes. Deux plages de dégradation thermique ont également été observées entre 290 et 385°C et entre 385 et 490°C. Elles étaient décrites respectivement par les modèles de Sestak-Berggren et de Sestak-Berggren tronqué. Des observations similaires étaient faites pour les formulations mélangées avec des enceintes chauffées à 240, 250 et 260°C. Ainsi donc, le thermoformage numérique s’est limité aux formulations mélangées à 250°C. Les tendances des propriétés rhéologiques déterminées par le code ThermoForm® ont indiqué l’effectivité du modèle de Christensen pour la description du comportement viscoélastique des formulations étudiées. Les variations numériques des paramètres de moulage indiquent la partition des formulations en deux groupes dont le taux massique du renfort est de 0, 1 et 5% pour le premier, et 10 et 15% pour le second. Le premier groupe est plus adapté aux moulages de types libre et par thermoformage; cependant, une grande puissance d’air soufflé est nécessaire au moulage de la formulation renforcée de 1% de fibres, ce qui fait de la formulation renforcée de 5% de fibres la seule alternative selon les coûts du procédé et la performance fonctionnelle. Le second groupe a montré une performance relativement faible qui est attribuable à la dégradation thermique partielle causée par le moulage d’un important volume de fibres par rapport à la matrice disponible. Dans ce travail, le PET renforcé de fibres de chanvre a été mis en forme avec succès et une étude de son comportement face au thermoformage a été faite; cependant, le peaufinage des conditions de mise en œuvre fera l’objet des travaux futurs ainsi que la valorisation de plus grands taux de renfort à travers des applications nécessitant des renforts tissés.

Page generated in 0.6258 seconds