Spelling suggestions: "subject:"canner."" "subject:"3dscanner.""
391 |
Algorithms for the analysis of 3D magnetic resonance angiography imagesTizon, Xavier 15 October 2004 (has links) (PDF)
L'athérosclérose est une atteinte de la paroi des vaisseaux, qui détériore progressivement la circulation du sang à mesure qu'elle évolue. Les crises cardiaques et les attaques cérébrales qui sont les conséquences de cette maladie causent, dans les pays industrialisés, plus de décès que le cancer. L'angiographie est l'ensemble des techniques d'imagerie utilisées durant le diagnostic, le traitement, et le suivi de l'athérosclérose. Récemment, il a été montré que l'angiographie par Résonance Magnétique (ARM) avait un fort potentiel pour remplacer l'angiographie conventionnelle, invasive, par imagerie à rayons X. Cependant, pour exploiter toutes les informations apportées par cette modalité, il est nécessaire de mettre au point des méthodes plus objectives et plus reproductibles.<br />Cette thèse montre, à l'aide de deux applications, comment l'analyse d'images peut proposer une solution pour la définition et l'implémentation de ces méthodes. Premièrement, en utilisant la segmentation pour améliorer la visualisation de clichés d'ARM utilisant des produits de contraste du pool sanguin. Cette technique est aussi appliquée en angiographie scanner. Nous montrons que, en utilisant un algorithme issu de la théorie des graphes et de la logique floue, associé à une interaction limitée avec un utilisateur expert, nous pouvons simplifier la visualisation de structures 3D complexes comme les arbres vasculaires. Deuxièmement, nous proposons une méthodologie pour analyser la géométrie des artères en ARM corps entier. La ligne centrale des artères est extraite, et les propriétés géométriques de cette courbe 3D sont calculées, pour améliorer l'interprétation des angiogrammes. Ces techniques sont le point de départ d'une approche plus globale que la procédure conventionnelle d'évaluation de l'athérosclérose, dans l'espoir un jour d'utiliser ces méthodes pour un suivi systématique des maladies vasculaires.<br />Nous avons développé les méthodes que nous présentons dans le but qu'elles soient utilisées dans la pratique clinique. Cependant, elle peuvent potentiellement être utilisées pour d'autres applications de l'analyse d'images.
|
392 |
Simulation du Mouvement Pulmonaire pour un Traitement OncologiqueVillard, Pierre-Frédéric 28 September 2006 (has links) (PDF)
L'objectif de cette thèse est d'améliorer le traitement curatif du cancer du poumon par radiothérapie conformationnelle et hadronthérapie. Il s'agit de simuler, dans un cas concret, le mouvement et les déformations des poumons d'un patient. Issu de plusieurs colaborations médicales, nous avons défini des conditions initiales et des conditions limites pour obtenir un modèle biomécanique suivant les lois de la mécanique des milieux continus et personnalisé à un patient. Le calcul mécanique est réalisé sur un poumon fixé au niveau du médiastin et soumis à une dépression homogène tout autour avec prise en compte les grandes déformations. Une contrainte supplémentaire de gestion du contact de la surface du poumon autorisant le glissement est ajoutée pour reproduire le comportement réel des organes et plus spécialement celui de l'enveloppe des poumon : la plèvre. Une étude a par ailleurs été menée sur la conversion des données prédites du modèle en scanner 4D afin de préparer la dosimétrie.
|
393 |
Étude et conception d'un système d'imagerie passive à courte portée basé sur la synthèse de réseau d'antennes commutables. Application dans les bandes Ku et Ka.Aouial, Yassine 16 November 2012 (has links) (PDF)
Les travaux présentés dans cette thèse sont une contribution à l'étude des systèmes d'imagerie passive à courte portée pour la détection d'objets faiblement dissimulés en vue d'applications pour la sécurité des personnes. Ces travaux ont été menés au cours d'une collaboration de deux équipes de l'IETR : le département "Antennes & dispositifs Hyperfréquences" ainsi que le département "Progagation - localisation & Télédétection". Le cadre de cette collaboration a concerné donc l'étude d'un dispositif ayant un coût faible et une complexité réduite permettant l'imagerie 2D pour une portée relativement faible, et étudier les éléments nécessaires à la mise en place d'un démonstrateur complet. En s'abstenant d'éléments émetteurs, nous assurons l'inoffensivité du dispositif. L'imagerie s'effectue donc par la synthèse d'ouverture interférométrique. Un des points durs du travail concerne donc la définition de l'architecture du système et son optimisation. Nous apportons donc à travers ces travaux de recherche une réponse pour minimiser le nombre de récepteurs présents dans le système. Un nouveau concept basé sur l'utilisation de la commutation par l'approche de sous-matrices de switchs est présenté. Pour améliorer le rapport coût-performances des systèmes d'imagerie, le nombre de récepteurs est réduit au minimum (deux récepteurs), tout en conservant des performances suffisantes. La synthèse du réseau d'antennes afin d'optimiser et de simplifier le processus de commutation démontre la possibilité de mettre en oeuvre un système bas coût et facilement intégrable. Cette approche a été adaptée donc dans un système antennaire actif complet, en bande X et en bande millimétrique. L'objectif de ces prototypes est de valider dans un premier temps cette approche de manière expérimentale, puis de valider le principe de calibration du système afin de traiter les données réelles pour la reconstruction d'images.
|
394 |
Μέθοδοι βελτίωσης της χωρικής ανάλυσης ψηφιακής εικόναςΠαναγιωτοπούλου, Αντιγόνη 12 April 2010 (has links)
Η αντιμετώπιση της περιορισμένης χωρικής ανάλυσης των εικόνων, η οποία οφείλεται στους φυσικούς περιορισμούς που εμφανίζουν οι αισθητήρες σύλληψης εικόνας, αποτελεί το αντικείμενο μελέτης της παρούσας διδακτορικής διατριβής. Στη διατριβή αυτή αρχικά γίνεται προσπάθεια μοντελοποίησης της λειτουργίας του ψηφιοποιητή εικόνας κατά τη δημιουργία αντίγραφου ενός εγγράφου μέσω απλών μοντέλων. Στην εξομοίωση της λειτουργίας του ψηφιοποιητή, το προτεινόμενο μοντέλο θα πρέπει να προτιμηθεί έναντι των μοντέλων Gaussian και Cauchy, που συναντώνται στη βιβλιογραφία, καθώς είναι ισοδύναμο στην απόδοση, απλούστερο στην υλοποίηση και δεν παρουσιάζει εξάρτηση από συγκεκριμένα χαρακτηριστικά λειτουργίας του ψηφιοποιητή.
Έπειτα, μορφοποιούνται νέες μέθοδοι για τη βελτίωση της χωρικής ανάλυσης σε εικόνες. Προτείνεται μέθοδος μη ομοιόμορφης παρεμβολής για ανακατασκευή εικόνας Super-Resolution (SR). Αποδεικνύεται πειραματικά πως η προτεινόμενη μέθοδος η οποία χρησιμοποιεί την παρεμβολή Kriging υπερτερεί της μεθόδου η οποία δημιουργεί το πλέγμα υψηλής ανάλυσης μέσω της σταθμισμένης παρεμβολής κοντινότερου γείτονα που αποτελεί συμβατική τεχνική. Επίσης, παρουσιάζονται τρεις νέες μέθοδοι για στοχαστική ανακατασκευή εικόνας SR regularized. Ο εκτιμητής Tukey σε συνδυασμό με το Bilateral Total Variation (BTV) regularization, ο εκτιμητής Lorentzian σε συνδυασμό με το BTV regularization και ο εκτιμητής Huber συνδυασμένος με το BTV regularization είναι οι τρεις μέθοδοι που προτείνονται. Μία πρόσθετη καινοτομία αποτελεί η απευθείας σύγκριση των τριών εκτιμητών Tukey, Lorentzian και Huber στην ανακατασκευή εικόνας super-resolution, άρα στην απόρριψη outliers. Η απόδοση των προτεινόμενων μεθόδων συγκρίνεται απευθείας με εκείνη μίας τεχνικής SR regularized που υπάρχει στη βιβλιογραφία, η οποία αποδεικνύεται κατώτερη. Σημειώνεται πως τα πειραματικά αποτελέσματα οδηγούν σε επαλήθευση της θεωρίας εύρωστης στατιστικής συμπεριφοράς.
Επίσης, εκπονείται μία πρωτότυπη μελέτη σχετικά με την επίδραση που έχει κάθε ένας από τους όρους έκφρασης πιστότητας στα δεδομένα και regularization στη διαμόρφωση του αποτελέσματος της ανακατασκευής εικόνας SR. Τα συμπεράσματα που προκύπτουν βοηθούν στην επιλογή μίας αποτελεσματικής μεθόδου για ανακατασκευή εικόνας SR ανάμεσα σε διάφορες υποψήφιες μεθόδους για κάποια δεδομένη ακολουθία εικόνων χαμηλής ανάλυσης. Τέλος, προτείνεται μία μέθοδος παρεμβολής σε εικόνα μέσω νευρωνικού δικτύου. Χάρη στην προτεινόμενη τεχνική εκπαίδευσης το νευρωνικό δίκτυο μαθαίνει το point spread function του ψηφιοποιητή εικόνας. Τα πειραματικά αποτελέσματα αποδεικνύουν πως η προτεινόμενη μέθοδος υπερτερεί σε σχέση με τους κλασικούς αλγόριθμους δικυβικής παρεμβολής και παρεμβολής spline. Η τεχνική που προτείνεται εξετάζει για πρώτη φορά το ζήτημα της σειράς της παρουσίασης των δεδομένων εκπαίδευσης στην είσοδο του νευρωνικού δικτύου. / Coping with the limited spatial resolution of images, which is caused by the physical limitations of image sensors, is the objective of this thesis. Initially, an effort to model the scanner function when generating a document copy by means of simple models is made. In a task of scanner function simulation the proposed model should be preferred over the Gaussian and Cauchy models met in bibliography as it is equivalent in performance, simpler in implementation and does not present any dependence on certain scanner characteristics.
Afterwards, new methods for improving images spatial resolution are formulated. A nonuniform interpolation method for Super-Resolution (SR) image reconstruction is proposed. Experimentation proves that the proposed method employing Kriging interpolation predominates over the method which creates the high-resolution grid by means of the weighted nearest neighbor interpolation that is a conventional interpolation technique. Also, three new methods for stochastic regularized SR image reconstruction are presented. The Tukey error norm in combination with the Bilateral Total Variation (BTV) regularization, the Lorentzian error norm in combination with the BTV regularization and the Huber error norm combined with the BTV regularization are the three proposed methods. An additional novelty is the direct comparison of the three estimators Tukey, Lorentzian and Huber in the task of super-resolution image reconstruction, thus in rejecting outliers. The performance of the proposed methods proves superior to that of a regularized SR technique met in bibliography. Experimental results verify the robust statistics theory.
Moreover, a novel study which considers the effect of each one of the data-fidelity and regularization terms on the SR image reconstruction result is carried out. The conclusions reached help to select an effective SR image reconstruction method, among several potential ones, for a given low-resolution sequence of frames. Finally, an image interpolation method employing a neural network is proposed. The presented training procedure results in the network learning the scanner point spread function. Experimental results prove that the proposed technique predominates over the classical algorithms of bicubic and spline interpolation. The proposed method is novel as it treats, for the first time, the issue of the training data presentation order to the neural network input.
|
395 |
Effet de la variabilité intra et interspécifique du bois sur les procédés de traitement thermique / Effect of the intra and interspecific variability of wood on heat modification processesHamada, Joël 16 November 2016 (has links)
Dans le contexte du développement durable qui a vu l’introduction de la directive produits biocides BPD 98/8/CE, l’étude des méthodes innovantes de préservation du bois comme le traitement thermique revêt une importance prépondérante. Le traitement thermique du bois permet d’améliorer ses propriétés de résistance biologique, de stabilité dimensionnelle ainsi que son aspect esthétique, sans ajout de produit chimique. Les études actuelles sur la problématique de la qualité du bois traité thermiquement se focalisent sur les caractéristiques finales du bois déjà traité, l’influence des conditions de traitement ou encore l’effet essence. Les propriétés intrinsèques du bois avant le traitement ne sont pas encore prises en compte. Les propriétés du bois telles que la densité ou la composition chimique étant variables principalement sous l’effet de l’activité humaine comme la sylviculture, l’objectif de cette thèse était d’évaluer l’impact de cette variabilité chez le chêne sessile (Quercus petraea Liebll.) et le sapin (Abies alba Mill) sur leur modification par voie thermique. Un scanner et un micro-densitomètre à rayons X ont été utilisés pour caractériser la variation de la densité des échantillons de planches et des cernes de croissance provenant des arbres étudiés. Des traitements thermiques ont été réalisés dans un four pilote à conduction sous vide de type macro-thermobalance et un analyseur thermogravimétrique (ATG). Des analyses chimiques ont été également réalisées. Les résultats montrent qu’en prenant la perte de masse due à la dégradation thermique du bois comme réponse, les types de tissus du bois et la composition chimique influencent sa thermo-dégradation. Que ce soit chez Quercus petraea ou chez Abies alba, le bois de printemps était plus sensible au traitement thermique que son voisin de bois d’été. De plus, les portions radiales du tronc, du bois juvénile à l’aubier en passant par le bois mature, se dégradaient suivant des cinétiques différentes. En conclusion, la variation de la microstructure et la composition chimique de ces bois influencent leur cinétique globale de thermo-dégradation. La sylviculture impacte cette différence intraspécifique de cinétique de dégradation à l’échelle intra- et interarbre. En effet, dans le cas du sapin pectiné, une gestion très dynamique des forêts dans le but de stimuler la croissance rapide des arbres qui produisent de gros bois contenant des cernes très larges, est source de variation dans la structure anatomique et la composition chimique à l’intérieur des arbres en comparaison aux petits bois à croissance lente plus homogènes. Toutes ces analyses ont pour objectif final de comprendre le lien entre les propriétés initiales du bois et les modifications thermiques intervenant au cours du traitement afin d’apporter une information utile aux industriels lors du choix des pièces de bois destinées au traitement thermique en vue d’une amélioration de la qualité du bois traité thermiquement / In the context of sustainable development which has seen the introduction of the biocides directive BPD 98/8/CE in the EU, innovative wood preservation practices such as Heat Treatment (HT) become relevant. Wood HT, also termed wood thermal modification, is a physical modification technology by which wood is heated at around 200 °C in an inert atmosphere. The main purpose of the treatment is to improve the biological durability and dimensional stability of wood. Current studies on thermally modified wood (TMW) quality are focusing on treated material, on treatment conditions or on species effect on the end-product characteristics. Relatively little is known about the effect of intrinsic wood properties on its thermal modification. As wood properties vary especially under the influence of human activities through sylviculture, this thesis studied the effect of European oak and silver fir wood density and chemical composition on their thermal modification kinetic. An X rays computed tomography (CT) and densitometer were used to characterize wood samples. Boards were heat-treated by conduction under vacuum using a pilot furnace, whereas sawdust samples underwent thermo-gravimetric analysis under nitrogen. The analysis allowed finding intra- and interspecific variations, especially within growth rings and along radial direction (from pith to bark). Forest management impacted heat modification kinetic of the studied samples, especially in silver fir where fast grown wood was more sensitive to treatment. The finding will be used as additional information to the wood industry which will account for homogeneity of loadings destined to heat treatment
|
396 |
Estudo de porosidade por processamento de imagens aplicada a patologias do concreto / Computer vision system for identification of alkali aggregate in concrete imageRodrigo Erthal Wilson 11 August 2015 (has links)
A reação álcali-agregado - RAA é uma patologia de ação lenta que tem sido observada
em construções de concreto capaz de comprometer suas estruturas. Sabe-se que a reação
álcali-agregado é um fenômeno bastante complexo em virtude da grande variedade de rochas
na natureza que são empregadas como agregados no preparo do concreto, podendo cada
mineral utilizado afetar de forma distinta a reação ocorrida. Em função dos tipos de estrutura,
das suas condições de exposição e dos materiais empregados, a RAA não se comporta sempre
da mesma forma, em virtude disto a pesquisa constante neste tema é necessária para o meio
técnico e a sociedade. Pesquisas laboratoriais, empíricas e experimentais tem sido rotina em
muitos dos estudos da RAA dada ainda à carência de certas definições mais precisas a
respeito dos métodos de ensaio, mas também em função da necessidade do melhor
conhecimento dos materiais de uso em concretos como os agregados, cimentos, adições,
aditivos entre outros e do comportamento da estrutura. Embora técnicas de prevenção possam
reduzir significativamente a incidência da RAA, muitas estruturas foram construídas antes
que tais medidas fossem conhecidas, havendo no Brasil vários casos de estruturas afetadas,
sendo custosos os reparos dessas estruturas. Em estudos recentes sobre o tamanho das
partículas de álcali-agregado e sua distribuição foi concluído que o tamanho do agregado está
relacionado com o potencial danoso da RAA. Existem ainda indícios de que o tamanho e a
distribuição dos poros do concreto também sejam capazes de influenciar o potencial reativo
do concreto. Neste trabalho desenvolvemos um Sistema de Visão Artificial (SVA) que, com o
uso de técnicas de Processamento de Imagens, é capaz de identificar em imagens de concreto,
agregado e poros que atendam em sua forma, às especificações do usuário, possibilitando o
cálculo da porosidade e produzindo imagens segmentadas à partir das quais será possível
extrair dados relativos à geometria desses elementos. Serão feitas duas abordagens para a
obtenção das imagens, uma por Escâner Comercial, que possui vantagens relacionadas à
facilidade de aquisição do equipamento, e outra por micro tomógrafo. Uma vez obtidas
informações sobre as amostras de concreto, estas podem ser utilizadas para pesquisar a RAA,
comparar estruturas de risco com estruturas antigas de forma a melhorar a previsão de risco de
ocorrência, bem como serem aplicadas a outras no estudo de outras patologias do concreto
menos comuns no nosso país, como o efeito gelo/degelo. / The alkali-aggregate reaction - RAA is a condition of slow action that has been
observed in concrete constructions that could affect their structures. It is known that the
alkali-aggregate reaction is a very complex phenomenon because of the great variety of rocks
in nature that are used as aggregates for concrete, and each mineral used differently affects the
reaction occurred. Depending on the type of structure, its exposure conditions and the
materials used, this phenomenon does not always behaves the same way, because of this,
constant research in this area is needed for the technical means and the society. Laboratory,
empirical and experimental research has been routine in many of the RAA studies still given
the lack of certain more precise definitions concerning the testing methods, but also because
of the need for better understanding of the use of materials in concrete as aggregate, cement,
additions, additives etc. and structure behavior. Prevention techniques could significantly
reduce the incidence of RAA. Still, many structures were built before such measures were
known, several cases of affected structures were discovered in Brazil, all with large spending
on repairs of the affected structures. In recent studies on the particle size of the alkaliaggregate
and its distribution was concluded that the aggregate size is related to the damaging
potential of the RAA. There are also indications that the size and distribution of concrete
pores are also capable of influencing the reactive potential of the concrete. In the present work
we developed an Artificial Vision System ( VAS ) that uses image processing techniques to
identify aggregate and pores in hardened concrete images, enabling the calculation of porosity
and producing segmented images that can be used to investigate data about the geometry of
these elements. Were made two approaches for obtaining the images, one by Scanner
Commercial, which has related advantages will ease the acquisition of equipment, and other
micro CT scanner. Once obtained information on the concrete samples, these can be used to
search the AAR compared risk structures with old structures so as to enhance the occurrence
of risk prediction, as well as be applied to other concrete in the study of other pathologies less
common in our country, as ice effect / thaw.
|
397 |
Detection of annual rings in woodJonsson, Christian January 2008 (has links)
This report describes an annual line detection algorithm for the WoodEye quality control system. The goal with the algorithm is to find the positions of annual lines on the four surfaces of a board. The purpose is to use this result to find the inner annual ring structure of the board. The work was done using image processing techniques to analyze images collected with WoodEye. The report gives the reader an insight in the requirements of quality control systems in the woodworking industry and the benefits of automated quality control versus manual inspection. The appearance and formation of annual lines are explained on a detailed level to provide insight on how the problem should be approached. A comparison between annual rings and fingerprints are made to see if ideas from this area of pattern recognition can be adapted to annual line detection. This comparison together with a study of existing methods led to the implementation of a fingerprint enhancement method. This method became a central part of the annual line detection algorithm. The annual line detection algorithm consists of two main steps; enhancing the edges of the annual rings, and tracking along the edges to form lines. Different solutions for components of the algorithm were tested to compare performance. The final algorithm was tested with different input images to find if the annual line detection algorithm works best with images from a grayscale or an RGB camera.
|
398 |
Intégration d'images multimodales pour la caractérisation de cardiomyopathies hypertrophiques et d'asynchronismes cardiaques / Multimodal image registration for the characterization of the hypertrophic cardiomyopathy and the cardiac asynchronismBetancur Acevedo, Julian Andrés 27 May 2014 (has links)
Cette thèse porte sur la caractérisation cardiaque, qui représente un enjeu méthodologique et clinique important, à la fois pour améliorer le diagnostic des pathologies et optimiser les moyens de traitement. Des méthodes de recalage et de fusion de données sont proposées pour amener dans un même référentiel des images IRM, scanner, échographiques et électro-anatomiques et ainsi décrire le cœur suivant des caractéristiques anatomiques, électriques, mécaniques et tissulaires. Les méthodes proposées pour recaler des données multimodales reposent sur deux processus principaux : l'alignement temporel et le recalage spatial. Les dimensions temporelles des images considérées sont mises en synchronisées par une méthode de déformation temporelle dynamique adaptative. Celle-ci permet de compenser les modifications temporelles non-linéaires entre les différentes acquisitions. Pour le recalage spatial, des méthodes iconiques ont été développées pour corriger les artefacts de mouvements dans les séquences ciné-IRM, pour recaler les séquences ciné-IRM avec les séquences d'IRM de rehaussement tardif et pour recaler les ciné-IRM avec les images scanner. D'autre part, une méthode basée contours, développée dans un précédent travail, a été améliorée pour prendre en compte des acquisitions échographiques multi-vues. Ces méthodes ont été évaluées sur données réelles pour sélectionner les métriques les plus adaptées et pour quantifier les performances des approches iconiques et pour estimer la précision du recalage entre échographies et ciné-IRM. Ces méthodes sont appliquées à la caractérisation de cardiomyopathies hypertrophiques (CMH) et d'asynchronismes cardiaques. Pour la CMH, l'objectif était de mieux interpréter les données échographiques par la fusion de l'information de fibrose issue de l'IRM de rehaussement tardif avec l'information mécanique issue de l'échographie de speckle tracking. Cette analyse a permis d'évaluer le strain régional en tant qu'indicateur de la présence locale de fibrose. Concernant l'asynchronisme cardiaque, nous avons établi une description du couplage électromécanique local du ventricule gauche par la fusion de données échographiques, électro-anatomiques, scanner et, dans les cas appropriés, d'IRM de rehaussement tardif. Cette étude de faisabilité ouvre des perspectives pour l'utilisation de nouveaux descripteurs pour la sélection des sites de stimulation optimaux pour la thérapie de resynchronisation cardiaque. / This work concerns cardiac characterization, a major methodological and clinical issue, both to improve disease diagnostic and to optimize its treatment. Multisensor registration and fusion methods are proposed to bring into a common referential data from cardiac magnetic resonance (CMRI), dynamic cardiac X-ray computed tomography (CT), speckle tracking echocardiography (STE) and electro-anatomical mappings of the inner left ventricular chamber (EAM). These data is used to describe the heart by its anatomy, electrical and mechanical function, and the state of the myocardial tissue. The methods proposed to register the multimodal datasets rely on two main processes: temporal registration and spatial registration. The temporal dimensions of input data (images) are warped with an adaptive dynamic time warping (ADTW) method. This method allowed to handle the nonlinear temporal relationship between the different acquisitions. Concerning the spatial registration, iconic methods were developed, on the one hand, to correct for motion artifacts in cine acquisition, to register cine-CMRI and late gadolinium CMRI (LGE-CMRI), and to register cine-CMRI with dynamic CT. On the other hand, a contour-based method developed in a previous work was enhanced to account for multiview STE acquisitions. These methods were evaluated on real data in terms of the best metrics to use and of the accuracy of the iconic methods, and to assess the STE to cine-CMRI registration. The fusion of these multisensor data enabled to get insights about the diseased heart in the context of hypertrophic cardiomyopathy (HCM) and cardiac asynchronism. For HCM, we aimed to improve the understanding of STE by fusing fibrosis from LGE-CMRI with strain from multiview 2D STE. This analysis allowed to assess the significance of regional STE strain as a surrogate of the presence of regional myocardial fibrosis. Concerning cardiac asynchronism, we aimed to describe the intra-segment electro-mechanical coupling of the left ventricle using fused data from STE, EAM, CT and, if relevant, from LGE-CMRI. This feasibility study provided new elements to select the optimal sites for LV stimulation.
|
399 |
Detekce vad vláknitého materiálu užitím metod strojového učení / Defect detection on fiber materials using machine learningLang, Matěj January 2019 (has links)
Cílem této diplomové práce je automatizace detekce vad ve vláknitých materiálech. Firma SILON se již přes padesát let zabývá výrobou jemné vaty z recyklovaných PET lahví. Tato vata se následně používá ve stavebnictví, automobilovém průmyslu, ale nejčastěji v dámských hygienických potřebách a dětských plenách. Cílem firmy je produkovat co nejkvalitnější výrobek a proto je každá dávka testována v laboratoři s několika přísnými kritérii. Jednám z testů je i množství vadných vláken, jako jsou zacuchané smotky vláken, nebo nevydloužená vlákna, která jsou tvrdá a snadno se lámou. Navrhovaný systém sestává ze snímací lavice fungující jako scanner, která nasnímá vzorek vláken, který byl vložen mezi dvě skleněné desky. Byla provedena série testů s různým osvětlením, která ověřovala vlastnosti Rhodaminu, který se používá právě na rozlišení defektů od ostatních vláken. Tyto defekty mají zpravidla jinou molekulární strukturu, na kterou se barvivo chytá lépe. Protože je Rhodamin fluorescenční barvivo, je možné ho například pod UV světlem snáze rozeznat. Tento postup je využíván při manuální detekci. Při snímání kamerou je možno si vypomoci filtrem na kameře, který odfiltruje excitační světlo a propustí pouze světlo vyzářené Rhodaminem. Součástí výroby skeneru byla i tvorba ovládacího programu. Byla vytvořena vlastní knihovna pro ovládání motoru a byla upravena knihovna pro kameru. Oba systém pak bylo možno ovládat pomocí jednotného GUI, které zajišťovalo pořizování snímku celé desky. Pomocí skeneru byla nasnímána řada snímků, které bylo třeba anotovat, aby bylo možné naučit počítač rozlišovat defekty. Anotace proběhla na pixelové úrovni; každý defekt byl označen v grafickém editoru ve speciální vrstvě. Pro rozlišování byla použita umělá neuronová síť, která funguje na principu konvolucí. Tento typ sítě je navíc plně konvoluční, takže výstupem sítě je obraz, který by měl označit na tom původním vadné pixely. Výsledky naučené sítě jsou v práci prezentovány a diskutovány. Síť byla schopna se naučit rozeznávat většinu defektů a spolehlivě je umí rozeznat a segmentovat. Potíže má v současné době s detekcí rozmazaných defektů na krajích zorného pole a s defekty, jejichž hranice není tolik zřetelná na vstupních obrazech. Nutno zmínit, že zákazník má zájem o kompletní řešení scanneru i s detekčním softwarem a vývoj tohoto zařízení bude pokračovat i po závěru této diplomové práce.
|
400 |
Analýza konstrukce části elektrického stroje / Structural analysis of part of electrical machineFodor, Viktor January 2013 (has links)
This thesis discusses the optical diagnostics of electrical motor parts using a 3D scanner. It describes the construction of electrical induction motors, their heat losses, cooling and refrigeration systems that may be used by such motors. It approaches the possibilities of heat recording and briefly explains the 3D scanner’s principal. It also introduces the simulation program ANSYS which uses the finite element method. This thesis shows the post processing of the digitalized object and the simulations and compares the simulation and measurement results. The final part is devoted to the analysis of the obtained results.
|
Page generated in 0.0366 seconds