• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 148954
  • 59508
  • 32051
  • 24420
  • 9116
  • 8898
  • 3931
  • 3564
  • 2544
  • 2537
  • 2537
  • 2537
  • 2537
  • 2537
  • Tagged with
  • 101918
  • 48170
  • 46750
  • 24207
  • 21622
  • 17627
  • 16445
  • 15438
  • 10317
  • 10039
  • 9557
  • 9347
  • 9328
  • 8961
  • 8919
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Kalbos atpažinimas kompiuteriu / Speech recognition by computer

Bardauskas, Justinas 04 July 2014 (has links)
This work focuses on speech recognition by computer, pattern recognition stages and problems. Also there is a goal to create a speech recognition tool. At the beginning, there is a general overview of the audio signal and language concepts. The subsequent presentation of the essential tasks of speech recognition, introduction to matrix algebra, which is used to described algorithm. Information is provided on what basis and how features are extracted. For this work often is used LPC. This algorithm is one of the most popular extracting features of speech signal, so it is reviewed in this paper, as well as its modification WLPC. The following text of the speech recognition gives theory of extracted features use. Section „Acoustic modeling“ describes the recognition of speech units and one of the most commonly used acoustic modeling technologies – Hidden Markov Models and the next section „Speech modeling“ describes the language modeling, which purpose is to correct data referring to dictionaries and speech structure. The rest of the text is focused on speach recognition using specrtogram and implementation of speach recognition system. After that, there were executed experiments, that where used to define quality of speech recognition. / Šiame darbe gilinamasi i kalbos atpažinima kompiuteriu, atpažinimo etapus, problemas, o veliau meginama sukurti kalbos atpažinimo iranki. Pradžioje, bendrai apžvelgiama garso signalo, kalbos savokos. Veliau pateikiamos kalbos atpažinimo esminiai uždaviniai, supažindinama su matricu algebra, kuri naudojama aprašytuose algoritmuose. Pateikiama informacija kuo remiantis ir kaip išskiriami požymiai. Šiam darbui dažnai naudojamas LPC. Šis algoritmas yra vienas iš populiariausiu išskiriant kalbos signalo požymius, todel jis šiame darbe yra apžvelgtas, kaip ir jo modifikacija WLPC. Toliau tekste pateikiama kalbos atpažinimo teorija, apie išskirtu požymiu panaudojima. Skyriuje „Akustinis modeliavimas“, aprašomas kalbos vienetu atpažinimas ir vienas iš dažniausiai naudojamu akustinio modeliavimo technologiju - pasleptieji Markov’o modeliai, sekantis skyrius „Kalbos modeliavimas“, aprašo kalbos modeliavima, skirta jau turimiems duomenims sutvarkyti, remiantis žodynais ir analizuojamos kalbos struktura. Likusioje teksto dalyje koncentruojamasi ties kalbos atpažinimu panaudojant spektrograma ir kalbos atpažinimo sistemos igyvendinimu. Po to atlikti eksperimentai, kuriais buvo tiriama pateikto algoritmo atpažinimo kokybe.
82

COMPUTER SIMULATION SYSTEM FOR BRAIN AND CRANIOFACIAL SURGERIES

安田, 孝美, Yasuda, Takami 25 March 1989 (has links)
名古屋大学博士学位論文 学位の種類:工学博士 (課程) 学位授与年月日:平成1年3月25日
83

Elektrokardiogramų kompiuteriniai tyrimai / Computer-aided investigation of electrocardiograms

Borkovskaja, Ana 24 September 2008 (has links)
Darbe pirmiausia aprašoma EKG prasmė ir kompiuterinės analizės raida. Apžvelgiami pagrindiniai EKG kompiuterinės analizės uždaviniai – EKG įvedimas, saugojimas, parametrų nustatymas, klasifikacija ir interpretacija. Ištirta prieinama EKG analizės programinė įranga, kuri yra arba atviro kodo, arba komercinė (Demo versijos). Nustatyta, kad EKG analizės programinė įranga pagal paskirtį yra trijų tipų: EKG modeliavimo, mokymo ir analizės. Literatūros analizė parodė, kad atviros EKG kompiuterinės analizės programos yra daugiausia skirtos EKG mokymui. Išnagrinėtos EKG modeliavimo, mokymo ir analizės programinės įrangos aprašai pateikti lentelėse. Atlikti eksperimentai su realiais iš duomenų bazės atsisiųstais EKG įrašais. Eksperimentuose naudotos laisvai prieinamos Octave sistema sukurtos programos. Darbe sukurta vaizdinė vartotojo sąsaja, apjungianti šias programas, kuria demonstruojamas šių programų veikimas: EKG nuskaitymas, filtravimas ir parametrų nustatymas. / In this master work firstly is described the aim and development of ECG computer’s analysis. Also the main tasks of ECG computer’s analysis are analyzed including ECG input, saving, parameters’ detection, classification and interpretation. Besides available ECG analysis program is investigated which is an open source code or commercial (Demo version). ECG analysis software can be divided to the three types: ECG modeling, ECG learning and ECG analysis. The analysis given in the references showed that an open ECG software is mainly intended for ECG learning. All these investigated programs are described in the provided tables. The real ECG records from the data bases were taken and the experiments have been performed using the programs which were created by the Octave system. In this work the graphic interface was created which combined all these above mentioned programs. This graphic interface demonstrated the whole process of the program comprising getting ECG data, filtering and parameters detection.
84

Kompiuterio valdymas balsu / Control of computer using voice

Karalevičius, Raimundas 08 September 2009 (has links)
Šiame darbe gilinamasi į kompiuterio valdymo lietuvių kalba galimybes, apžvelgiant jau pasaulyje taikomus algoritmus bei pabrėžiant balso technologijų svarbą ateityje. Pagrindinis tikslas yra realizuoti kai kuriuos iš apžvelgtų atpažinimo algoritmų ir imituoti tam tikras valdymo balsu situacijas. Kaip kalbos atpažinimo pagrindas yra naudojamas dinaminės laiko skalės algoritmas (DTW) spektrinės poros (LSP) parametrams. Pagrindinės realizavimo priemonės – Java programavimo kalba, mikrofonas ir WAVE garsiniai failai. Pasiekti rezultatai leidžia teigti, kad įgyvendintas atpažinimo algoritmas gana tiksliai randa tariamus žodžius ir su nedideliu žodynu (iki 20 žodžių) efektyviai vykdo nurodytas komandas. Buvo apžvelgti tiesinės prognozės, spektrinės poros, kvantavimo, dinaminės laiko skalės tempimo ir paslėptų Markovo modelių algoritmai, suprogramuotas lietuvių kalbos atpažinimo algoritmas ir imituotos kompiuterio valdymo situacijos: kalkuliatorius, lango spalvos keitimas ir pelės žymeklio judinimas. Atlikti išsamūs suprogramuoto atpažinimo algoritmo testavimai parodė, kad rezultatų kokybė labai priklauso nuo kompiuterio mikrofono keliamo triukšmo, diktoriaus žodžių tarimo greičio ir pašalinių aplinkos triukšmų. Pagal eksperimentų rezultatus galima teigti, kad ilgesnių žodžių (daugiau negu du skiemenys) atpažinimo tikslumas yra didesnis negu trumpų žodžių (vienas arba du skiemenys). Taip pat pastebėta, kad akustiškai panašūs žodžiai atpažįstami blogiau negu neturintys jokio... [toliau žr. visą tekstą] / Nowadays speech processing should become very important because it is one of the best alternatives of present control means like keyboard and mouse. So this work studies: • The use of speech signal processing. • Various methods and algorithms of speech recognition. • The implementation of Lithuanian speech recognition in this work. • Comparison with other algorithms. • Simulation of voice control. There are described and analyzed these algorithms that are used in speech processing: Dynamic Time Warping [1], Linear Predictive Coding [2], Linear Spectral Pair (or Frequencies) ([2], [3], [8]), Vector Quantization [4], Adaptive Quantization [5] and Hidden Markov Models [9]. In the implementation of Lithuanian speech recognition were used Linear Predictive Coding, Linear Spectral Pair, Vector Quantization and Dynamic Time Warping algorithms, Java programming language, microphone and WAVE format. The speech recognition system were tested with more noisy and less noisy microphones, with various WAVE files recorded in different conditions and with real time speaking. Further for simulation of voice control were modeled three situations: calculator with four operations (sum, subtraction, multiplication and division), changing background colors and moving mouse cursor. To conclude it should be noted that: • Implemented speech recognition algorithm mostly gives around 90% recognition. • The precision of testing depends on microphone and surrounding noise, length and acoustic likeness of... [to full text]
85

Kompiuterių mikroarchitektūrinis lygmuo / Computer microarchitecture level

Damušis, Eimantas 24 September 2008 (has links)
Pagrindinė kompiuterio sudedamoji dalis yra duomenų traktas. Jį sudaro keletas registrų, dvi arba trys magistralės bei vienas ar keli funkciniai blokai, tokie kaip aritmetinis ir loginis įrenginys. Pagrindinis ciklas susideda iš keleto operandų iškvietimo, kurie yra registruose ir jų perdavimui magistralėmis į ALĮ ar kitą funkcinį bloką. Po šių operacijų įvykdymo rezultatai yra saugomi atgal į registrus. Duomenų traktas gali būti valdomas eiliškumo tvarka, kuri iškviečia mikroinstrukcijas iš atminties. Kiekvieną mikroinstrukciją sudaro bitai, kurie yra valdomi duomenų trakto vieno ciklo metu. Šie bitai nustato kuriuos operandus reikia išrinkti, kokią operaciją reikia atlikti ir ką reikia daryti su rezultatais. IJVM – mašina su stekine organizacija ir vieno baito operacijos kodu, kuris padeda žodžius į steką, taip pat juos paima iš steko ir atlieka įvairias operacijas su žodžiais iš steko. Kalbant apie kompiuterių produktyvumą galima paminėti, jog pagrindinis metodas yra dalinės atminties naudojimas. Tiesioginio atvaizdavimo ir asociatyvi tarpin÷ atmintis plačiai taikoma kreipimosi į atmintį pagreitinimui. Nagrinėti trys pavyzdžiai, Pentium II, UltraSPARC II ir picoJava II daugumoje atvejų skiriasi vieni nuo kitų, tačiau vykdant instrukcijas jie yra labai panašūs. Pentium II turi CISC tipo instrukcijas, kurias padalina į mikroinstrukcijas. Jos yra apdirbamos superskaliarinės architektūros instrukcijos su šakojimosi numatymu. UltraSPARC II yra modernus 64 bitų procesorius su... [toliau žr. visą tekstą] / The main component of the computer is a data path. It consists of several registers, two or three buses, one or more functional blocks, such as ALU. The primary cycle consists of a call of operands from registers. Operands are transferred to ALU by buses. After these operations, results are saved in again in the registers. The data path can be controlled by the sequence method, which calls the microinstruction from the memory. Every microinstruction consists of bits, which are controlled by data path in one cycle. These bits determine which operands they have to choose, what you need to execute and what to do with the results. IJVM – a machine with stack organization. It has one-byte operations, which places words on the stack, pushing them from the stack and carry out various operations with words from the stack. Our three examples, Pentium II, UltraSPARC II and picoJava II in many ways differs from each other, but surprisingly are similar in executing instructions. Pentium II takes CISC instructions and splits them into microinstructions. UltraSPARC II is a modern 64 – bit processor with instruction set of RISC. PicoJava II is a simple designed processor for lowcost devices. It has no such features like dynamic branch prediction, but it can execute JVM instructions rather quickly like its done with RISC instructions. All three machines contain similar functional blocks that can process three microinstructions when they pass through the conveyor.
86

A study of reconfigurable manufacturing systems with computer simulation

Du Preez, Jacques 12 1900 (has links)
Thesis (MScEng)--Stellenbosch University, 2011. / ENGLISH ABSTRACT: Reconfigurable Manufacturing Systems (RMSs) have the ability to reconfigure hardware and control resources at all of the functional and organizational levels. This allows for quick adjustment of production capacity and functionality in response to sudden changes in market or in regulatory requirements. This study evaluates the characteristics and operation of automated reconfigurable assembly lines using discrete event simulation. The assembly line uses a conveyor system which transports pallets to various machines to perform the assembly process. Different conveyor configurations are developed for the same assembly process using Simio simulation software. A part family consisting of five variants are assembled on the same assembly line with a large variation in the production quantities for each product. This requires the assembly system to be able to quickly adjust its functionality and capacity. Multi-objective optimization is performed on the models through the use of a Pareto exhaustive search experiment. The two contradicting objectives used are the throughput rate of the system and the average work in progress, with the aim of maximizing the former and minimizing the latter. From the Pareto exhaustive search experiment, a Pareto front is constructed showing which configuration is preferred under certain operation conditions. However it is concluded that the Pareto front can be tailored to fit the specific needs of the decision maker, depending on what the decision maker is willing to pay. An experiment that evaluates the effect of changing the conveyor speed is performed. It is established that under certain operating conditions, increasing the conveyor speed higher than the ceiling value will not improve the performance of the system. A production scenario was also developed which include different order sizes for each of the five parts of the part family. The configurations have to alter their capacities based on the order sizes to test which system performs the best under these operating conditions. For this experiment, the ramp-up time was of interest but the best system was chosen based on the combination of throughput rate and the average work in progress. From the results of the different experiments, it is recommended to first determine the maximum capacity and the operating logic before choosing one of the configurations. Once this is decided, the information gathered from the experiments can then be tailored for the decision maker to establish the best operating conditions for the chosen con guration. The developed simulation models are used as a Decision Support System for future research on the topic. It is recommended for future research to focus on using Automated Guided Vehicles (AGVs) instead of a conveyor system as transportation method. / AFRIKAANSE OPSOMMING: Herkonfigureerbare Vervaardigingstelsels (HVSs) het die vermoee om alle hardeware en beheer hulpbronne, op alle funksionele en organisatoriese vlakke te herkonfigureer. Dit maak dit moontlik vir vinnige verstellings aan produksie kapasiteit en funksionaliteit, indien daar 'n skielike verandering in die mark of wetgewing is. Hierdie studie evalueer die karakteristieke en werking van outomatiese herkon gureerbare monteerlyne met behulp van diskrete gebeurtenis simulasie. Die monteerlyne gebruik vervoerbande om pallette na verskeie masjiene te vervoer, sodat die parte aanmekaar gesit kan word. Simio simulasie sagteware is gebruik om verskillende vervoerband kon gurasies vir dieselfde monteringsproses te ontwikkel. 'n Part familie van vyf variante word op dieselfde monteerlyn aanmekaargesit. Daar is 'n groot variasie in die produksie hoeveelhede van elk van die vyf variante, dus moet die monteerlyne vinnig die kapasiteit en funksionaliteit kan aanpas. Multi-doelwitoptimering is toegepas op die modelle deur 'n Pareto alomvattende soek eksperiment uit te voer. Die twee teenstrydige doelwitte wat gebruik is, is die deurset tempo van die stelsel asook die gemiddelde werk-in-proses. Die doel is om die deurset tempo te maksimeer en terselfde tyd die gemiddelde werk-in-proses te minimeer. Die Pareto alomvattende soek eksperiment word verder gebruik om 'n Pareto front te skep wat uitwys watter vervoerband kon gurasies verkies word onder sekere bedryfstoestande. Die Pareto front kan egter aangepas word om die spesi eke behoeftes van die besluitnemer te pas. 'n Eksperiment is uitgevoer om die uitwerking van die vervoerbandspoed op die stelsel te toets. Resultate het getoon dat onder sekere bedryfstoestande die werkverrigting van die stelsel nie verbeter indien die spoed 'n maksimum grenswaarde oorskry nie. 'n Eksperiment wat 'n produksie scenario voorstel is ontwikkel waarin die vraag na die vyf part variante gevarieer word. Die vervoerband konfigurasies moet dan die kapasiteit aanpas gebaseer op die vraag na die parte. Die doel van die eksperiment is om te toets watter kon gurasie die beste vaar onder hierdie bedryfstoestande. Die tyd wat dit neem vir die stelsel om weer op dreef te kom na 'n verandering in kapasiteit is ondersoek in hierdie eksperiment, maar die beste stelsel is nog steeds gekies gebaseer op die kombinasie van deurset tempo en die gemiddelde werk-in-proses. Gegewe die resultate van die verskillende eksperimente, word dit voorgestel dat die besluitnemer eers die maksimum kapasiteit en die bedryfstoestande vasstel, voordat 'n vervoerband kon gurasie gekies word. Sodra dit besluit is, kan die inligting wat tydens die eksperimente ingesamel is, aangepas word om die beste bedryfstoestande vir die kon gurasie wat gekies is, vas te stel. Die simulasie modelle wat ontwikkel is word gebruik as 'n besluitnemingsondersteuningstelsel vir toekomstige navorsing oor die onderwerp. Dit word voorgestel dat toekomstige navorsing die moontlikheid van geoutomatiseerde begeleide voertuie (GBV), in plaas van vervoerbande as vervoermiddel, ondersoek.
87

Finanční analýza firmy - Falco computer, s.r.o

Fexová, Natalija January 2006 (has links)
No description available.
88

ALEAR: Arte procesual-arte aleatorio. La aleatoriedad en el "computer art"

Puig Mestres, Luis Eloy 06 April 2005 (has links)
¿Qué relación existe entre el ordenador y el azar?, ¿De que manera utiliza el ordenador los componentes aleatorios?, ¿Cómo el Computer-art utiliza el azar para desarrollar proyectos creativos?, ¿Hasta que punto el azar ha determinado el desarrollo del Computer-art? Esta tesis se segmenta en tres aproximaciones.1ª aproximación.- "Alear v_cd" se trata de un proyecto "reactivo" presentado en CD-Rom. En él no hay interacción, la máquina es quien decide todo el desarrollo de la pieza. Es una interpretación sobre diversos conceptos de la comunicación representados a través de factores aleatorios que determinarán una visualización única para cada vez que se ejecute, sin que los contenidos narrativos varíen. 2ª aproximación.- "Alear v_shots" es una edición en forma de libro de una selección de screenshots de "Alear v_cd", unas imágenes realizadas previamente al desarrollo del ejecutable y unos textos literarios adaptados a las narraciones visuales. 3ª aproximación.- "Alear Arte procesual-aleatorio" La aleatoriedad en el Computer-art es un estudio teórico y reflexivo sobre la aleatoriedad aplicada al Computer-art, incluyendo el análisis de textos y obras de otros artistas y científicos que han utilizado el concepto del azar para articular sus propios trabajos y reflexionar sobre la complejidad de nuestra realidad. Si en épocas anteriores lo caótico, lo irregular era un referente poco sugerente, ahora con el ordenador y con una sencilla operación matemática que pueda generar aleatoriedad, ha pasado a ser un elemento crucial para entender la actualidad del arte contemporáneo. Esta tesis pretende introducir y estudiar aplicaciones artísticas y variantes teóricas derivadas de la presencia asombrosamente grande y multiforme de lo computacional, del cálculo numérico y la aleatoriedad en nuestro entorno creativo contemporáneo, y observar cómo se han convertido en un medio poderosamente condicionador de nuestras actividades artísticas. En un primer bloque. se reflexiona entorno al azar desde la perspectiva científica, tecnológica, musical y literaria. El segundo bloque se centra en el territorio propio del Computer-art para analizar su relación con los componentes aleatorios, ver cuando se origina esa relación y porqué. "procesual-aleatorio" surge de la necesidad de dar un nombre clasificatorio al conjunto de trabajos que por un lado utilizan el microprocesador como elemento básico para su desarrollo y ejecución, y por otro lado, al conjunto que incorpora componentes aleatorios y que lo dotarán de un carácter diferenciador. Para demostrar que esta categorización estética no surge solamente por una determinación técnica, se determinan las principales características de esta nueva tipología de trabajos. / What kind of relation exists between the computer and the chance? In which way the computer uses a random components? How the Computer-art uses the chance to develop creative projects? Until which point the chance has determined the development of the Computer-art? This thesis is segmented in three approaches. 1ª approach. - "Alear v_cd" is a "reactive" presented project in CD-Rom. There is no interaction; the machine is the one that decides all the development of the piece. It is an interpretation from diverse represented concepts of the communication through random factors that will determine a unique visualization whenever it is executed, without any variety of the narrative contents. 2ª approach. - "Alear v_shots" is an edition in the form of a book with a selection of screenshots " Alear v_cd", images made previously to the development of feasible and literary texts adapted to the visual narrations. 3ª approach. - "Alear procesual-random Art" the randomness in the Computer-art is a theoretical and reflective study of the randomness applied to the Computer-art, including the analysis of texts and works of other artists and scientists who have used the concept of the chance to articulate their own works and to reflect on the complexity of our reality. If the chaotic thing, the irregular thing was a reference merely suggestive in the previous times, the computer and one simple mathematical operation that can generate randomness becomes a crucial element to understand the present time of the contemporary art.This thesis tries to introduce and study the artistic applications and theoretical varieties derived from the amazingly vast presence and multiform of the computational, the numerical calculation and the randomness in our contemporary creative surroundings, and to observe how they have become a powerful medium that conditions our artistic activities.
89

Computer modeling and experimentation in radiofrequiency-based minimally invasive therapies.

Ewertowska, Elzbieta 07 January 2020 (has links)
[ES] La ablación por radiofrecuencia (RF) se ha convertido en una técnica ablativa importante, ampliamente utilizada en el área de las terapias mínimamente invasivas de la medicina moderna. El avance en el campo de las tecnologías basadas en RF a lo largo de los años ha llevado a un número creciente de aplicaciones en diferentes áreas terapéuticas tales como arritmias cardíacas, epilepsia, oncología, resección asistida, apnea, dolor o cirugía estética. Sin embargo, existe una constante necesidad de desarrollar estudios computacionales y experimentales para mejorar el rendimiento de estas técnicas. El enfoque principal de esta tesis doctoral está centrado en examinar los efectos térmicos y eléctricos de ablación por radiofrecuencia de tejidos para mejorar la eficacia y la seguridad de las terapias y dispositivos basados en energía de radiofrecuencia. Las dos áreas principales de interés han sido el tratamiento del dolor y la cirugía hepática oncológica, que se han organizado en tres estudios independientes. La metodología de los estudios se ha basado en modelos computacionales y estudios experimentales sobre phantom de agar, modelos ex vivo e in vivo y ensayos clínicos. El estudio focalizado en el tratamiento del dolor ha incluido el análisis de los efectos eléctricos y térmicos del tratamiento con radiofrecuencia pulsada (PRF) y el riesgo relacionado con el daño térmico al tejido. Se han estudiado diferentes protocolos pulsados empleados en la práctica clínica utilizando modelos computacionales. La exactitud del modelo se ha validado mediante un modelo en phantom de agar. Se han propuesto también modelos computacionales adicionales para los protocolos pulsados alternativos en los cuales se reduciría el efecto térmico sin afectar al efecto eléctrico. En el estudio se ha discutido también el concepto de electroporación leve como el resultado de PRF. En el área de la cirugía hepática oncológica se han analizado dos técnicas diferentes. El primer estudio se ha centrado en examinar la hidratación del tejido durante la ablación por RF con un nuevo electrodo ICW. El nuevo diseño ha incluido dos agujas de perfusión expandibles integradas en el catéter. El objetivo principal ha sido mejorar la precisión del modelo computacional de ablación por RF de tumor utilizando una geometría realista de la distribución de solución salina en el tejido y evaluar el rendimiento del catéter de RF. Se han modelado diferentes casos de tumor infundido con solución salina y los resultados simulados se han comparado con los datos clínicos de un ensayo en 17 pacientes con cáncer hepático. Con el fin de obtener una distribución espacial realista de la solución salina infundida, se ha empleado un estudio in vivo sobre el modelo de hígado de cerdo. El segundo estudio se ha centrado en el desarrollo de una nueva técnica de sellado endoluminal basada en catéter, como una alternativa más efectiva para el manejo del remanente pancreático. El método ha consistido en una ablación por radiofrecuencia guiada por impedancia con la técnica de pullback. El ajuste del tipo de catéter de RF y del protocolo de ablación se ha realizado mediante modelos porcinos ex vivo. Posteriormente, la efectividad del sellado se ha evaluado sobre un modelo de cerdo in vivo. / [CAT] L'ablació per radiofreqüència (RF) s'ha convertit en una tècnica ablativa important, àmpliament utilitzada en l'àrea de les teràpies mínimament invasives de la medicina moderna. L'avanç en el camp de les tecnologies basades en RF al llarg dels anys ha portat a un número creixent d'aplicacions en diferents àrees terapèutiques com ara arítmies cardíaques, epilèpsia, oncologia, resecció assistida, apnea, dolor o cirurgia estètica. No obstant això, hi ha una constant necessitat de desenvolupar estudis computacionals i experimentals per a millorar el rendiment d'aquestes tècniques. Aquesta tesi doctoral ha estat centrada en examinar els efectes tèrmics i elèctrics de l'ablació per radiofreqüència de teixits per tal de millorar l'eficàcia i la seguretat de les teràpies i dispositius basats en energia de radiofreqüència. Dos àrees principals són el tractament del dolor i la cirurgia hepàtica. Aquestos han sigut organitzats en tres estudis independents. La metodologia dels estudis ha estat basada en models computacionals i experimentals sobre phantom d'agar, models ex vivo i in vivo i assajos clínics. L'estudi enfocat en el tractament del dolor ha inclòs l'anàlisi dels efectes elèctrics i tèrmics del tractament amb radiofreqüència polsada (PRF) i el risc relacionat amb el dany tèrmic al teixit. S'han estudiat diferents protocols polsats emprats en la pràctica clínica utilitzant models computacionals. L'exactitud del model ha estat validada per mitjà d'un model de phantom d'agar. S'han proposat també models computacionals addicionals per a protocols polsats alternatius en els quals es reduiria l'efecte tèrmic sense afectar l'efecte elèctric. En aquest estudi s'ha discutit també el concepte d'electroporació lleu com el resultat de PRF. A l'àrea de la cirugía hepàtica han sigut analitzades dos tècniques diferents. El primer estudi s'ha centrat en la hidratació del teixit durant l'ablació per RF amb un nou elèctrode ICW. El nou disseny ha inclòs dos agulles de perfusió expandibles integrades en el catèter. L' objetiu principal ha sigut millorar la precisió del model computacional d' ablació de tumors per RF utilitzant una geometria realista per a la distribució de sèrum salií en el teixit i evaluar el rendiment del catèter de RF. S'han modelat diferents casos de tumor infundit amb sèrum salí i els resultats simulats han sigut comparats amb les dades clíniques d'un assaig dut a terme sobre 17 pacients amb càncer hepàtic. Amb l'objetiu d'obtenir una distribució espacial realista del sèrum salí injectat, s'ha du a terme un estudi in vivo basat en un model de fetge de porc. El segon estudi s'ha centrat en el desenvolupament d'una nova tècnica de tancament endoluminal bassat en catèter, com una alternativa més efectiva per a gestionar el romanent pancreàtic. El mètode ha consistit en una ablació per radiofreqüència guiada per impedància amb la tècnica de pullback. L'ajust del tipus de catèter de RF i del protocol d'ablació ha sigut realitzat per mitjà de models porcins ex vivo. Posteriorment, l'efectivitat del tancament ha sigut avaluada sobre un model de porc in vivo. / [EN] Radiofrequency (RF) ablation has become an important ablative technique widely used in the area of minimally invasive therapies of the modern medicine. The advancement in the field of RF-based technologies over the years has led to a growing number of applications in different therapeutic areas such as cardiac arrhythmias, epilepsy, oncology, assisted resection, apnea, pain or aesthetic surgery. There is, however, a constant need for the development of computer and experimental studies, which would enhance the performance and safety of these techniques. The main focus of this PhD Thesis was on examining the thermal and electrical phenomena behind tissue radiofrequency ablation in order to improve the efficacy and safety of the RF-based therapies and applicators. Two main areas of interest were pain management and oncology, which were organized into three independent studies. The research methodology was based on computer modeling and experimental studies on phantoms, ex vivo and in vivo models, and clinical trials. The research on pain management involved the analysis of electrical and thermal effects of the pulsed radiofrequency (PRF) treatment and the related risk of tissue thermal damage. Different pulse protocols used in clinical practice were studied using computer modeling and the study accuracy was validated by means of agar phantom model. Additional computer models for alternative pulse protocols were also proposed, in which thermal effect would be reduced but the electrical effect would remain unchanged. The study also discussed the concept of a mild electroporation from PRF. In the area of oncology, two different techniques were analyzed. First study focused on examining tissue hydration technique during RF ablation with a novel internally cooled wet (ICW) electrode. The new design involved two expandable perfusion needles built into the catheter. The main aim was to improve the accuracy of computer model of tumor RF ablation using a realistic geometry of saline distribution in tissue, and to assess the performance of the RF catheter. Different cases of saline-infused tumor were modeled and the simulated results were compared with the clinical data from a trial on 17 hepatic cancer patients. An in vivo study on pig liver model was used to obtain a realistic spatial distribution of the infused saline. The second study focused on the development of a new catheter-based endoluminal sealing technique as more effective alternative for management of the pancreatic stump. The method consisted of the impedance-guided radiofrequency ablation with pullback. Fine-tuning involving RF catheter type and ablation protocol was performed using ex vivo porcine models, and posteriorly, sealing effectiveness was assessed on an in vivo pig model. / The completion of this work would have not been possible without the financial support of the Spanish Ministerio de Economía, Industría y Competitividad that provided funding for the development of this research project, my Predoctoral scholarship, and also Travel Grant for the research stay in The Wellman Center for Photomedicine / Ewertowska, E. (2019). Computer modeling and experimentation in radiofrequiency-based minimally invasive therapies [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/134057 / TESIS
90

Contributions to Pen & Touch Human-Computer Interaction

Martín-Albo Simón, Daniel 01 September 2016 (has links)
[EN] Computers are now present everywhere, but their potential is not fully exploited due to some lack of acceptance. In this thesis, the pen computer paradigm is adopted, whose main idea is to replace all input devices by a pen and/or the fingers, given that the origin of the rejection comes from using unfriendly interaction devices that must be replaced by something easier for the user. This paradigm, that was was proposed several years ago, has been only recently fully implemented in products, such as the smartphones. But computers are actual illiterates that do not understand gestures or handwriting, thus a recognition step is required to "translate" the meaning of these interactions to computer-understandable language. And for this input modality to be actually usable, its recognition accuracy must be high enough. In order to realistically think about the broader deployment of pen computing, it is necessary to improve the accuracy of handwriting and gesture recognizers. This thesis is devoted to study different approaches to improve the recognition accuracy of those systems. First, we will investigate how to take advantage of interaction-derived information to improve the accuracy of the recognizer. In particular, we will focus on interactive transcription of text images. Here the system initially proposes an automatic transcript. If necessary, the user can make some corrections, implicitly validating a correct part of the transcript. Then the system must take into account this validated prefix to suggest a suitable new hypothesis. Given that in such application the user is constantly interacting with the system, it makes sense to adapt this interactive application to be used on a pen computer. User corrections will be provided by means of pen-strokes and therefore it is necessary to introduce a recognizer in charge of decoding this king of nondeterministic user feedback. However, this recognizer performance can be boosted by taking advantage of interaction-derived information, such as the user-validated prefix. Then, this thesis focuses on the study of human movements, in particular, hand movements, from a generation point of view by tapping into the kinematic theory of rapid human movements and the Sigma-Lognormal model. Understanding how the human body generates movements and, particularly understand the origin of the human movement variability, is important in the development of a recognition system. The contribution of this thesis to this topic is important, since a new technique (which improves the previous results) to extract the Sigma-lognormal model parameters is presented. Closely related to the previous work, this thesis study the benefits of using synthetic data as training. The easiest way to train a recognizer is to provide "infinite" data, representing all possible variations. In general, the more the training data, the smaller the error. But usually it is not possible to infinitely increase the size of a training set. Recruiting participants, data collection, labeling, etc., necessary for achieving this goal can be time-consuming and expensive. One way to overcome this problem is to create and use synthetically generated data that looks like the human. We study how to create these synthetic data and explore different approaches on how to use them, both for handwriting and gesture recognition. The different contributions of this thesis have obtained good results, producing several publications in international conferences and journals. Finally, three applications related to the work of this thesis are presented. First, we created Escritorie, a digital desk prototype based on the pen computer paradigm for transcribing handwritten text images. Second, we developed "Gestures à Go Go", a web application for bootstrapping gestures. Finally, we studied another interactive application under the pen computer paradigm. In this case, we study how translation reviewing can be done more ergonomically using a pen. / [ES] Hoy en día, los ordenadores están presentes en todas partes pero su potencial no se aprovecha debido al "miedo" que se les tiene. En esta tesis se adopta el paradigma del pen computer, cuya idea fundamental es sustituir todos los dispositivos de entrada por un lápiz electrónico o, directamente, por los dedos. El origen del rechazo a los ordenadores proviene del uso de interfaces poco amigables para el humano. El origen de este paradigma data de hace más de 40 años, pero solo recientemente se ha comenzado a implementar en dispositivos móviles. La lenta y tardía implantación probablemente se deba a que es necesario incluir un reconocedor que "traduzca" los trazos del usuario (texto manuscrito o gestos) a algo entendible por el ordenador. Para pensar de forma realista en la implantación del pen computer, es necesario mejorar la precisión del reconocimiento de texto y gestos. El objetivo de esta tesis es el estudio de diferentes estrategias para mejorar esta precisión. En primer lugar, esta tesis investiga como aprovechar información derivada de la interacción para mejorar el reconocimiento, en concreto, en la transcripción interactiva de imágenes con texto manuscrito. En la transcripción interactiva, el sistema y el usuario trabajan "codo con codo" para generar la transcripción. El usuario valida la salida del sistema proporcionando ciertas correcciones, mediante texto manuscrito, que el sistema debe tener en cuenta para proporcionar una mejor transcripción. Este texto manuscrito debe ser reconocido para ser utilizado. En esta tesis se propone aprovechar información contextual, como por ejemplo, el prefijo validado por el usuario, para mejorar la calidad del reconocimiento de la interacción. Tras esto, la tesis se centra en el estudio del movimiento humano, en particular del movimiento de las manos, utilizando la Teoría Cinemática y su modelo Sigma-Lognormal. Entender como se mueven las manos al escribir, y en particular, entender el origen de la variabilidad de la escritura, es importante para el desarrollo de un sistema de reconocimiento, La contribución de esta tesis a este tópico es importante, dado que se presenta una nueva técnica (que mejora los resultados previos) para extraer el modelo Sigma-Lognormal de trazos manuscritos. De forma muy relacionada con el trabajo anterior, se estudia el beneficio de utilizar datos sintéticos como entrenamiento. La forma más fácil de entrenar un reconocedor es proporcionar un conjunto de datos "infinito" que representen todas las posibles variaciones. En general, cuanto más datos de entrenamiento, menor será el error del reconocedor. No obstante, muchas veces no es posible proporcionar más datos, o hacerlo es muy caro. Por ello, se ha estudiado como crear y usar datos sintéticos que se parezcan a los reales. Las diferentes contribuciones de esta tesis han obtenido buenos resultados, produciendo varias publicaciones en conferencias internacionales y revistas. Finalmente, también se han explorado tres aplicaciones relaciones con el trabajo de esta tesis. En primer lugar, se ha creado Escritorie, un prototipo de mesa digital basada en el paradigma del pen computer para realizar transcripción interactiva de documentos manuscritos. En segundo lugar, se ha desarrollado "Gestures à Go Go", una aplicación web para generar datos sintéticos y empaquetarlos con un reconocedor de forma rápida y sencilla. Por último, se presenta un sistema interactivo real bajo el paradigma del pen computer. En este caso, se estudia como la revisión de traducciones automáticas se puede realizar de forma más ergonómica. / [CAT] Avui en dia, els ordinadors són presents a tot arreu i es comunament acceptat que la seva utilització proporciona beneficis. No obstant això, moltes vegades el seu potencial no s'aprofita totalment. En aquesta tesi s'adopta el paradigma del pen computer, on la idea fonamental és substituir tots els dispositius d'entrada per un llapis electrònic, o, directament, pels dits. Aquest paradigma postula que l'origen del rebuig als ordinadors prové de l'ús d'interfícies poc amigables per a l'humà, que han de ser substituïdes per alguna cosa més coneguda. Per tant, la interacció amb l'ordinador sota aquest paradigma es realitza per mitjà de text manuscrit i/o gestos. L'origen d'aquest paradigma data de fa més de 40 anys, però només recentment s'ha començat a implementar en dispositius mòbils. La lenta i tardana implantació probablement es degui al fet que és necessari incloure un reconeixedor que "tradueixi" els traços de l'usuari (text manuscrit o gestos) a alguna cosa comprensible per l'ordinador, i el resultat d'aquest reconeixement, actualment, és lluny de ser òptim. Per pensar de forma realista en la implantació del pen computer, cal millorar la precisió del reconeixement de text i gestos. L'objectiu d'aquesta tesi és l'estudi de diferents estratègies per millorar aquesta precisió. En primer lloc, aquesta tesi investiga com aprofitar informació derivada de la interacció per millorar el reconeixement, en concret, en la transcripció interactiva d'imatges amb text manuscrit. En la transcripció interactiva, el sistema i l'usuari treballen "braç a braç" per generar la transcripció. L'usuari valida la sortida del sistema donant certes correccions, que el sistema ha d'usar per millorar la transcripció. En aquesta tesi es proposa utilitzar correccions manuscrites, que el sistema ha de reconèixer primer. La qualitat del reconeixement d'aquesta interacció és millorada, tenint en compte informació contextual, com per exemple, el prefix validat per l'usuari. Després d'això, la tesi se centra en l'estudi del moviment humà en particular del moviment de les mans, des del punt de vista generatiu, utilitzant la Teoria Cinemàtica i el model Sigma-Lognormal. Entendre com es mouen les mans en escriure és important per al desenvolupament d'un sistema de reconeixement, en particular, per entendre l'origen de la variabilitat de l'escriptura. La contribució d'aquesta tesi a aquest tòpic és important, atès que es presenta una nova tècnica (que millora els resultats previs) per extreure el model Sigma- Lognormal de traços manuscrits. De forma molt relacionada amb el treball anterior, s'estudia el benefici d'utilitzar dades sintètiques per a l'entrenament. La forma més fàcil d'entrenar un reconeixedor és proporcionar un conjunt de dades "infinit" que representin totes les possibles variacions. En general, com més dades d'entrenament, menor serà l'error del reconeixedor. No obstant això, moltes vegades no és possible proporcionar més dades, o fer-ho és molt car. Per això, s'ha estudiat com crear i utilitzar dades sintètiques que s'assemblin a les reals. Les diferents contribucions d'aquesta tesi han obtingut bons resultats, produint diverses publicacions en conferències internacionals i revistes. Finalment, també s'han explorat tres aplicacions relacionades amb el treball d'aquesta tesi. En primer lloc, s'ha creat Escritorie, un prototip de taula digital basada en el paradigma del pen computer per realitzar transcripció interactiva de documents manuscrits. En segon lloc, s'ha desenvolupat "Gestures à Go Go", una aplicació web per a generar dades sintètiques i empaquetar-les amb un reconeixedor de forma ràpida i senzilla. Finalment, es presenta un altre sistema inter- actiu sota el paradigma del pen computer. En aquest cas, s'estudia com la revisió de traduccions automàtiques es pot realitzar de forma més ergonòmica. / Martín-Albo Simón, D. (2016). Contributions to Pen & Touch Human-Computer Interaction [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/68482 / TESIS

Page generated in 0.659 seconds