Spelling suggestions: "subject:"processamento"" "subject:"processamentos""
1 |
Exploring Arterial Dynamics and Structures in IntraVascular UltraSound SequencesHernàndez i Sabaté, Aura 07 July 2009 (has links)
Les malalties cardiovasculars són una de les principals causes de mortalitat als països desenvolupats. La majoria d'elles són degudes a malalties arterials (especialment les coron ries), que vénen causades per l'acumulació de placa. Aquesta patologia estreny el flux sanguini (estenosi) i afecta les propietats elàstiques i bio-mecàniques (arteriosclerosi) de les artèries. En les últimes dècades, l'Ecografia Intra-Coronària (EIC) ha esdevingut una tècnica usual de diagnòstic per la imatge i seguiment de les malalties coronàries. L'EIC està basada en un cateterisme que mostra una seqüència d'imatges corresponents a seccions de l'artèria sota estudi. La inspecció visual de cadascuna d'aquestes imatges proporciona informació sobre el percentatge d'estenosi, mentre que la inspecció de les vistes longitudinals propociona informació sobre les propietats bio-mecàniques, que pot prevenir un desenllaç fatal de la malaltia cardiovascular. Per una banda, la dinàmica arterial (deguda al batec del cor, entre d'altres) és un dels principals artefactes per poder explorar les propietats biomecàniques. Al mateix temps, les mesures manuals d'estenosi requereixen un traçat manual de les vores del vas, tasca feixuga que consumeix molt de temps i que pot patir variabilitat entre observadors.Aquesta tesi proposa vàries eines de processament d'imatge per explorar la dinàmica de les artèries i les seves estructures. Presentem un model físic per extreure, analitzar i corregir la dinàmica rígida transversal dels vasos i per recuperar la fase cardíaca. A més, introduïm un mètode estadístic-determinista per a la detecció automàtica de les vores del vas. En particular, l'enfoquem a segmentar l'adventícia. Un protocol de validació acurat per assegurar una aplicació clínica fiable dels mètodes és un pas crucial en qualsevol proposta d'algorisme. En aquesta tesi tenim especial cura de dissenyar protocols de validació per a cadascuna de les tècniques proposades i contribuïmm a la validació de la dinàmica in vivo amb un indicador objectiu i quantitatiu per mesurar la quantitat de moviment suprimida. / Cardiovascular diseases are a leading cause of death in developed countries. Most of them are caused by arterial (specially coronary) diseases, mainly caused by plaque accumulation. Such pathology narrows blood flow (stenosis) and affects artery bio-mechanical elastic properties (atherosclerosis). In the last decades, IntraVascular UltraSound (IVUS) has become a usual imaging technique for the diagnosis and follow up of arterial diseases. IVUS is a catheter-based imaging technique which shows a sequence of cross sections of the artery under study. Inspection of a single image gives information about the percentage of stenosis. Meanwhile, inspection of longitudinal views provides information about artery bio-mechanical properties, which can prevent a fatal outcome of the cardiovascular disease. On one hand, dynamics of arteries (due to heart pumping among others) is a major artifact for exploring tissue bio-mechanical properties. On the other one, manual stenosis measurements require a manual tracing of vessel borders, which is a time-consuming task and might suffer from inter-observer variations.This PhD thesis proposes several image processing tools for exploring vessel dynamics and structures. We present a physics-based model to extract, analyze and correct vessel in-plane rigid dynamics and to retrieve cardiac phase. Furthermore, we introduce a deterministic-statistical method for automatic vessel borders detection. In particular, we address adventitia layer segmentation. An accurate validation protocol to ensure reliable clinical applicability of the methods is a crucial step in any proposal of an algorithm. In this thesis we take special care in designing a validation protocol for each approach proposed and we contribute to the in vivo dynamics validation with a quantitative and objective score to measure the amount of motion suppressed.
|
2 |
Sensors i estratègies de test de circuits digitals CMOS per vigilància del consumRius Vázquez, Josep 13 June 1997 (has links)
El objetivo de la tesis es realizar aportaciones en el campo de las estrategias de test basadas en la vigilancia del consumo quiescente de los circuitos integrados CMOS y de los sensores utilizados para dicho fin (test de corriente o test iddq). Para ello se analiza en primer lugar el estado del arte en el diseño de sensores para el test IDDQ y se extraen criterios para la evaluacion de la calidad de dichos sensores. En la tesis se propone un nuevo tipo de sensor integrado (proportional built-in current sensor) que utiliza como elemento transductor un transistor bipolar compatible con la tecnologia CMOS. Se caracteriza tambien su comportamiento estetico y dinamico y se realizan pruebas con circuitos experimentales para validar los analisis realizados.En la tesis se proponen dos metodos originales para el test IDDQ mediante sensores externos al circuito que se este verificando (cut): el primero se basa en la desconexion de la alimentacion del cut y en la observacion del comportamiento de sus salidas. El segundo metodo se basa en el analisis de la evolucion de la tension en el nodo de alimentacion de un CUT cuando se le aplica un conjunto de vectores de test estando el circuito alimentado por un condensador. Ambos metodos propuestos requieren un interruptor para la alimentacion del CUT con unas caracteristicas especiales. Por ello, se ha diseñado un nuevo tipo de interruptor que cumple con las especificaciones de baja resistencia en estado de conduccion y baja inyeccion de carga en el paso del estado de no conduccion al de conduccion. Finalmente, los metodos propuestos se han validado experimentalmente al ser implementados en una maquina de test convencional verificandose su efectividad en la deteccion de los defectos de multiples circuitos integrados.
|
3 |
Part-of-speech Tagging: A Machine Learning Approach based on Decision TreesMàrquez, Lluís 21 July 1999 (has links)
The study and application of general Machine Learning (ML) algorithms to theclassical ambiguity problems in the area of Natural Language Processing (NLP) isa currently very active area of research. This trend is sometimes called NaturalLanguage Learning. Within this framework, the present work explores the applicationof a concrete machine-learning technique, namely decision-tree induction, toa very basic NLP problem, namely part-of-speech disambiguation (POS tagging).Its main contributions fall in the NLP field, while topics appearing are addressedfrom the artificial intelligence perspective, rather from a linguistic point of view.A relevant property of the system we propose is the clear separation betweenthe acquisition of the language model and its application within a concrete disambiguationalgorithm, with the aim of constructing two components which are asindependent as possible. Such an approach has many advantages. For instance, thelanguage models obtained can be easily adapted into previously existing taggingformalisms; the two modules can be improved and extended separately; etc.As a first step, we have experimentally proven that decision trees (DT) providea flexible (by allowing a rich feature representation), efficient and compact wayfor acquiring, representing and accessing the information about POS ambiguities.In addition to that, DTs provide proper estimations of conditional probabilities fortags and words in their particular contexts. Additional machine learning techniques,based on the combination of classifiers, have been applied to address some particularweaknesses of our tree-based approach, and to further improve the accuracy in themost difficult cases.As a second step, the acquired models have been used to construct simple,accurate and effective taggers, based on diiferent paradigms. In particular, wepresent three different taggers that include the tree-based models: RTT, STT, andRELAX, which have shown different properties regarding speed, flexibility, accuracy,etc. The idea is that the particular user needs and environment will define whichis the most appropriate tagger in each situation. Although we have observed slightdifferences, the accuracy results for the three taggers, tested on the WSJ test benchcorpus, are uniformly very high, and, if not better, they are at least as good asthose of a number of current taggers based on automatic acquisition (a qualitativecomparison with the most relevant current work is also reported.Additionally, our approach has been adapted to annotate a general Spanishcorpus, with the particular limitation of learning from small training sets. A newtechnique, based on tagger combination and bootstrapping, has been proposed toaddress this problem and to improve accuracy. Experimental results showed thatvery high accuracy is possible for Spanish tagging, with a relatively low manualeffort. Additionally, the success in this real application has confirmed the validity of our approach, and the validity of the previously presented portability argumentin favour of automatically acquired taggers.
|
4 |
Generalized consistent estimation in arbitrarily high dimensional signal processingRubio Molina-Prados, Francisco E. 13 June 2008 (has links)
La teoría del procesado estadístico de la señal halla un amplio abanico de aplicaciones en los campos de las comunicaciones de datos, así como también en el procesado con agrupaciones de sensores. Ciertamente, un gran número de estas aplicaciones pueden ser interpretadas como un problema de estimación paramétrica, típicamente resuelto mediante una operación de filtrado lineal actuando sobre un conjunto de observaciones multidimensionales. Esta disertación está dedicada al diseño y evaluación de métodos de procesado estadístico de la señal en condiciones de implementación realistas encontradas en la práctica.Las técnicas tradicionales de procesado estadístico de la señal proporcionan un rendimiento satisfactorio dada la disponibilidad de un número particularmente elevado de observaciones de dimensión finita. En efecto, las condiciones de optimalidad originales no pueden garantizarse en teoría a menos que el número de muestras disponibles aumente de forma asintótica. En base a esta suposición, en ocasiones se puede obtener una caracterización estadística haciendo uso de la teoría de grandes muestras para matrices de covarianza muestral. En la práctica, no obstante, la aplicación de estos métodos debe necesariamente basarse en una ventana de observación de longitud finita. Además, la dimensión de las muestras recibidas, y el tamaño de la ventana de observación son a menudo comparables en magnitud. En estas situaciones, los planteamientos basados en el análisis estadístico multivariante clásico pierden eficiencia de forma significativa.En esta tesis se proporciona un marco teórico para la caracterización de la pérdida de eficiencia que los enfoques estadísticos clásicos experimentan en aplicaciones típicas del procesado de la señal en las condiciones prácticas mencionadas con anterioridad. En base a la teoría del análisis espectral de matrices aleatorias de grandes dimensiones, o teoría de matrices aleatorias, se construye una familia de métodos de inferencia estadística que superan las limitaciones de los esquemas de estimación tradicionales para un tamaño de muestra y dimensión de la observación comparativamente grandes. Específicamente, los estimadores de la nueva clase obtenida generalizan las implementaciones al uso siendo consistentes incluso para observaciones con dimensión arbitrariamente grande. En particular, el marco teórico propuesto es empleado para caracterizar de forma adecuada el rendimiento de sistemas multi-antena con preámbulos de entrenamiento en un régimen asintótico más acorde definido por un tamaño y dimensión de las muestras que crecen sin límite con razón constante. Además, el problema de filtrado óptimo de rango reducido es revisado y extendido de forma que se satisfaga la definición anterior de consistencia generalizada. Por otro parte, se proporciona una caracterización asintótica en el doble límite de un conjunto de formas cuadráticas de las potencias negativas de la covarianza de la observación que generaliza los resultados existentes referentes a los momentos negativos de la distribución de Wishart. A partir de estos resultados, se construye una clase de estimadores de potencia de fuente mejorados que son robustos a imprecisiones en el conocimiento del nivel de ruido y de la matriz de covarianza real.Con el propósito de reducir la complejidad computacional asociada a implementaciones prácticas basadas en la inversión de matrices, se aborda una solución a los problemas anteriores en términos de las potencias positivas de la matriz de covarianza muestral. A tal efecto, se obtienen una clase de estimadores consistentes generalizados del espectro de la matriz de covarianza y del nivel de potencia en el subespacio de Krylov definido por la covarianza real y el vector de firma asociado al parámetro de interés. Como contribución final, se propone una arquitectura de filtrado robusto a constricciones de la firma que es consistente en el régimen doblemente asintótico de referencia a lo largo de la tesis. / The theory of statistical signal processing finds a wide variety of applications in the fields of data communications, such as in channel estimation, equalization and symbol detection, and sensor array processing, as in beamforming, and radar and sonar systems. Indeed, a large number of these applications can be interpreted in terms of a parametric estimation problem, typically approached by a linear filtering operation acting upon a set of multidimensional observations. This dissertation is devoted to the design and evaluation of statistical signal processing methods under realistic implementation conditions encountered in practice.Traditional statistical signal processing techniques intrinsically provide a good performance under the availability of a particularly high number of observations of fixed dimension. Indeed, the original optimality conditions cannot be theoretically guaranteed unless the number of samples increases asymptotically to infinity. In practice, though, the application of these methods to the implementation of practical signal processing systems must rely on an observation window of finite length. Moreover, the dimension of the received samples and the window size are most often comparable in magnitude. Under these situations, approaches based on the classical multivariate statistical analysis significantly lose efficiency or cannot even be applied. As a consequence, the performance of practical solutions in some real situations might turn out to be unacceptable.In this dissertation, a theoretical framework for characterizing the efficiency loss incurred by classical multivariate statistical approaches in conventional signal processing applications under the practical conditions mentioned above is provided. Based on the theory of the spectral analysis of large-dimensional random matrices, or random matrix theory (RMT), a family of new statistical inference methods overcoming the limitations of traditional inferential schemes under comparably large sample-size and observation dimension is derived. Specifically, the new class of consistent estimators generalize conventional implementations by proving to be consistent even for a limited number of samples per filtering degree-of-freedom.In particular, the proposed theoretical framework is shown to properly characterize the performance of multi-antenna systems with training preambles in the more meaningful asymptotic regime defined by both sample size and dimension increasing without bound at the same rate. Moreover, the problem of optimum reduced-rank linear filtering is reviewed and extended to satisfy the previous generalized consistency definition. On the other hand, an asymptotic characterization of a set of vector-valued quadratic forms involving the negative powers of the observation covariance is provided that generalizes existing results on the limiting eigenvalue moments of the inverse Wishart distribution. Using these results, a new generalized consistent eigenspectrum estimator is derived that uniquely relies on the sample covariance matrix (SCM) and does not require matrix eigendecomposition. The effectiveness of the previous spectral estimator is demonstrated via the construction of a source power estimator that is robust to inaccuracies in the knowledge of both noise level and true covariance matrix.In order to alleviate the computation complexity issue associated with practical implementations involving matrix inversions, a solution to the two previous problems is afforded in terms of the positive powers of the SCM. To that effect, a class of generalized consistent estimators of the covariance eigenspectrum and the power level are obtained on the Krylov subspace defined by the true covariance matrix and the signature vector associated with the intended parameter. Finally, a signal-mismatch robust filtering architecture is proposed that is consistent in the doubly-asymptotic regime.
|
5 |
L’hipertext i el processament de la informació a Primària El format hipertextual i els seus efectes en el processament i la comprensió de la informació textual en infants d’Educació PrimàriaSoria Andurell, Anna 15 December 2011 (has links)
Ubicada en l’àmbit de les teories del processament de la informació i els processos de comprensió i memòria en el camp de la Psicologia i la Pedagogia, i partint també de les noves tecnologies del context actual, aquesta tesi doctoral busca estudiar els efectes que el format hipertextual pot tenir en la comprensió lectora i la memòria del contingut textual en els contextos d’aprenentatge de la nostra societat d’avui. El format hipertextual aporta una nova dimensió a la comprensió lectora afegint a la pròpia escriptura una estructura en forma de xarxa semàntica que augmenta les possibilitats de relacionar conceptes i idees a mesura que es navega per ella. La recerca d’aquest estudi té per objectiu analitzar si aquesta estructuració, que l’assimila a la manera de pensar del cervell humà, té algun efecte sobre la comprensió i el posterior record d’aquesta informació, de forma concreta, entre els infants d’educació primària.
Aquesta investigació busca estudiar les diferències entre la comprensió i el record d’un contingut textual donat presentat de forma lineal i el mateix contingut textual presentat de forma hipertextual a dos grups d’alumnes de cinquè curs d’educació primària. També es pretenen analitzar les rutes de navegació seguides pels alumnes a qui es presenta el contingut en format hipertextual, per valorar les seves estratègies de lectura i processament d’aquesta informació i definir les característiques del seu nivell d’ús d’aquest tipus de materials. La finalitat global de l’estudi és la de determinar si existeixen diferències significatives entre el processament de la informació amb cadascun d’aquests dos tipus de formats textuals, i en quin sentit apunten aquestes diferències, per tal d’aprofundir i aportar coneixements més precisos sobre les actuals eines educatives digitals en el context iniciat pel programa de digitalització de les aules d’educació primària del Departament d’Ensenyament de la Generalitat de Catalunya.
El disseny del present estudi parteix de la hipòtesi que el processament de la informació presentada en format hipertextual millora la consolidació i l’emmagatzematge d’aquesta a curt i llarg termini degut a l’estructura dels seus nodes (fragments) d’informació en forma de xarxa que s’assimila a la forma d’organització neuronal del cervell humà, així com al funcionament per associació d’idees i conceptes de la ment humana. Atès que la informació en forma d’idees, conceptes, esquemes i imatges mentals, s’organitza en la ment humana a través d’una extensa xarxa neuronal, la informació processada i consolidada seguint les mateixes pautes d’associació i connectivitat entre nodes, és relacionada més ràpidament amb aquells coneixements ja consolidats en el cervell i, per tant, s’assimila més ràpidament, permetent un emmagatzematge més profund i durador en el temps / "Hypertext and information processing in Primary Education
The hypertext format and its effects on the processing and understanding of
textual information in primary school children"
SUMMARY:
Located in the area of the information processing theories and memory and understanding processes in the field of psychology and pedagogy, and also based on new technologies of the current context, this thesis seeks to examine the effects of the hypertext format can take the reading comprehension and memory of the textual content in the learning contexts of our society. The hypertext format brings a new dimension to reading by adding to our own writing a structure as a semantic network that increases the chances of relating concepts and ideas as we navigate through it.
This research analyze whether this structure, which assimilates the hypertext the thinking of the human brain, has an effect on understanding and the subsequent remembering of this information, specifically, among children of primary education.
This research studied the differences between comprehension and memory of a given textual content presented in a linear fashion and the same textual content presented in hypertext form to two groups of students in the fifth year of primary education. The overall aim of the study is to determine whether significant differences between the exit processing of information with each of these two types of text formats, and indicate in what sense these differences occur, to provide deeper and more precise knowledge on current educational tools in the digital imaging program initiated by the context of primary classrooms in Catalonia.
This study assumes the processing of information in hypertext format improves consolidation and storage of long and short term due to the structure of its nodes (fragments) of information as a network, that makes it similar to the shape of neuronal organization of the human brain, as well as the operation by association of ideas and concepts of the human mind. Because the information in the form of ideas, concepts, diagrams and mental images, organized in the human mind through an extensive neural network, the information processed and consolidated following the same patterns of association and connectivity between nodes, is related faster to those already established knowledge in the brain and therefore assimilated more quickly, allowing a deeper and lasting storage time.
|
6 |
Processament informàtic del llenguatge natural: un sistema d'anàlisi morfològica per ordinadorMartí Antonin, M. Antònia 20 June 1988 (has links)
L'objectiu d'aquesta tesi ha estat Ia construcció d'un analitzador morfològic automatitzat de la llengua catalana.L'interès de l'anàlisi morfològica computacional recolza en el fet que en qualsevol de les aplicacions de la lingüística computacional cal un tractament del text en aquest sentit que redueixi el volum del diccionari i les tasques de manteniment, especialment quan es tracta de Ilengües altament flexives.La finalitat de l'analitzador morfològic és la segmentación dels textos en unitats rellevants per al seu posterior tractament sintàctic o semàntic i l'associació d'informació a aquestes unitats.L'analitzador que ens ocupa té una arquitectura modular i està basat en un autòmat d'estats finits omplint amb condicions. La modularitat del sistema garanteix la independència de les dades entre elles i de les dades respecte del procés.La pertinència d'un autòmat per realitzar el procès d'anàlisi recolza en la seva adeqüació per al reconeixement dels mots en el sentit esquerra-dreta i en el fet que en els mots podem definir uns components, arrels, sufixos i elements flexius, que presenten un comportament distribucional i combinatori regular.El disseny de l'analitzador consisteix en la definició de l'estratègia de segmentació dels mots, en l'agrupament dels segments resultants en models segons les seves característiques morfològiques i en la definición de regles que determinen lo combinatòria correcta dels mòduls. Les condicions de les regles permeten controlar la capacitat d'anàlisi.Les arrels, els sufixos i els elements flexius es troben emmagatzemats en diccionaris específics. Cada un d'aquests elements duu associat un model i els atributs morfològics corresponents.Els models representen un nivell superior d'organització del material lingüístic que permet representar el comportament homogeni en la flexió i en la derivació: totes Ies arrels amb un mateix comportament flexiu estan agrupades en un únic model i els sufixos i els elements de flexió que combinen amb un mateix model d'arrels es troben igualment agrupats en un únic model. L'autòmat concatena models, de manera que les combinacions de les arrels amb els sufixos flexius i derivatius no s'han d'especificar individualment sinò al model al qual pertanyen.La informació morfològica es pot assignar als models i/o als elements dels diccionaris, segons es vulgui generalitzar o particularitzar.L'estructura de l'autòmat ha estat definida tenint en compte tant les característiques de la llengua com la funcionalitat del disseny. L'esquema de l'analitzador es fonamenta en la definició dels estats. Així, s'han definit tres estats reconeixedors d'arrels verbals, corresponents o la primera, segona i tercera conjugació, i un estat reconeixedor de les arrels nominals i adjectives. D'aquests estats surten els models corresponents a la flexió com els models de sufixos derivatius. De l'estat que reconeix els sufixos derivatius surten també els models de la flexió.Es tracta d'un disseny general, en el sentit que s'ha realitzat sense tenir en compte cap aplicació en concret. Aquest fet ha permès definir criteris metodològics de validesa general així com avaluar les diferents opcions en Ia segmentació de les formes, en la definició de models i en la construcción de l'autòmat. Com a resultat d'aquesta investigación actualment es disposa d'un analitzador de la llengua catalana que, per cada mot, dóna la seva categoria morfològica, les subcategories associades i l'arrel a partir de la qual s'ha analitzat.L'analitzador permet l'anàlisi de qualsevol forma de la llengua catalana sempre que correspongui a un dels models de flexió definits. L'anàlisi d'una nova forma només requereix donar d'alta Ia seva arrel aI diccionari i assignar-li el model de flexió que li correspon. Les formes derivades es resolen habitualment amb atributs a l'arrel, encara que alguns derivats, pel seu elevat rendiment, es validen aIs models i per tant es generalitzen per a totes les seves entrades.Les aportacions d'aquest analitzador respecte d'altres sistemes d'anàlisi morfològica automatitzada són: a) La possibilitat de resoldre tant les formes flexives com les derivades, fet que permet reduir en gran manera el volum de les dades enmagatzemades als diccionaris; b) La doble possibilitat d'anàlisi i generació. A més d'analitzar els textos, el sistema permet generar totes les formes flexives i derivades a partir d'una determinada arrel; c) La possibilitat de definir metaregles que permeten l'anàlisi de seqüències de sufixos o bé de grups de sufixos; d) La capacitat d'associar informació lèxica i morfològica a les unitats de l'anàlisi; i e) La simultaneïtat del procés d'anàlisi i de filtratge dels resultats.Resten obertes línies d'investigació que en el present estudi han quedat només esbossades. En primer lloc, seria interessant fer més exhaustiu l'ús de metarregles, fet que requereix un estudi acurat de les seqüències així com de Ia comparació de sufixos. Segonament, seria interessant definir amb detall quin tipus d' información lèxica es pot associar als mots, en general o per a una determinada aplicació. Finalment caldria tractar la resolució de les formes compostes dels verbs i del perfet perifràstic.L'analitzador està escrit en FORTRAN i està implementat en un VAX-750. / The aim of this research has been the design and implementation of an automatic morphological analyzer of Catalan. The morphological analysis by computers is necessary in most applications of Computational Linguistics, especially when they deal with very non-flexive languages like Catalan, Spanish, French, Italian, etc.The purpose of this analyzer is segmentation of texts in units that can be useful in a further syntactic or semantic processing and morphological and logical information attachment. Modularity, both in data structures and programs, is one of its more important features. The analyzer is based on a finite states automaton augmented by conditions. The design of that analyzer requires deciding a strategy to segment the words, the definition of patterns of morphological behaviour, the attachment of a pattern to each segment and the definition of rules that determines the correct combinations of these patterns.The contributions of this morphological analyzer in front of other systems are: a) The treatment of derivation and inflexion that permits to reduce in a very important way the size of the dictionaries; b) The system allows both analysis and generation; c) The possibility to define meta-rules that make possible the analysis of sequences and groups of suffixes; d) The ability to put together morphological and lexical information.As a result of this research, now we have available a morphological analyzer or Catalan that gives, in the analysis of each word, its morphological category, its associated subcategories and its root.The system has been written in FORTRAN and is implemented in a VAX-750.
|
7 |
A multi-microphone approach to speech processing in a smart-room environmentAbad Gareta, Alberto 29 June 2007 (has links)
Els avenços recents en tecnologia informàtica i processament de la parla i del llenguatge, entre altres, han fet possible que noves maneres de comunicació entre les persones i les màquines comencin a semblar factibles. Concretament, l'interès en el desenvolupament de noves aplicacions en entorns tancats equipats amb múltiples sensors multimodals, també coneguts com sales intel.ligents, ha augmentat considerablement darrerament. En general, és ben conegut que la qualitat de les senyals de la parla capturades per micròfons que poden trobar-se a diversos metros de distància dels locutors es veu severament degradada pel soroll acústic i per la reverberació de la sala. En el context del desenvolupament d'aplicacions de la parla en entorns de sales intel.ligents, l'ús de sensors que no siguin molestos és un requeriment habitual. És a dir, no està normalment permès o no és possible fer servir micròfons propers o de solapa, i per tant, les tecnologies de la parla desenvolupades han de basar-se en les senyals capturades per micròfons llunyans. En aquestes situacions, les tecnologies de la parla que habitualment funcionen raonablement bé en entorns lliures de soroll i reverberació pateixen una davallada dràstica en les seves prestacions.En aquesta tesis s'investiguen mètodes multi micròfon per a solucionar els problemes que provoca l'ús de micròfons llunyans en les aplicacions de la parla que habitualment es desenvolupen en sales intel.ligents. Concretament, s'estudia el processament d'arrays de micròfons com a un mètode possible d'aprofitar la disponibilitat de múltiples micròfons per a obtenir senyals de veu millorades. Mitjançant la correcta combinació de les senyals que incideixen en una agrupació de micròfons, el processament d'arrays permet apuntar direccions espacials concretes a l'hora que altres es rebutgen.Per a la millora de la parla amb arrays de micròfons, en la tesis es proposa l'ús d'un nou esquema robust de conformació que integra en només etapa un conformador adaptatiu i una etapa de post-filtrat de Wiener. Els resultats obtinguts mostren que el conformador proposat és una solució adequada per a entorns molt sorollosos i que, en general, és preferible a l'ús convencional d'etapes de post-filtrat a la sortida d'un conformador adaptatiu. No obstant això, el conformador mostra una certa degradació de la senyal de veu que pot afectar a la seva utilitat per a aplicacions de reconeixement de la parla, especialment quan el soroll no és massa important. A continuació s'investiga l'ús específic d'arrays de micròfons per al reconeixement de la parla en entorns de sales intel.ligents. Es demostra que l'ús convencional d'arrays de micròfons per al reconeixement de la parla, que consisteix en la seva aplicació en dues etapes independents, no aporta una millora significativa respecte de l'ús de tècniques mono-canal, especialment, si el reconeixedor està adaptat a les condicions reals de l'entorn acústic. En la tesis es fa èmfasis en la necessitat de que el reconeixement de la parla incorpori informació de la conformació amb arrays de micròfons, o alternativament, que els conformadors incorporin informació del reconeixement de la parla. Més concretament, es proposa utilitzar les dades primer capturades per un array de micròfons i després processades per un conformador per a la construcció dels models acústics, per a d'aquesta manera, obtenir un major benefici dels arrays de micròfons. La aplicació del esquema proposat d'adaptació amb dades conformades d'un array, permet obtenir una millora considerable en un sistema de reconeixement depenent de locutor, mentre que en el cas d'un sistema independent de locutor només s'obté una millora molt limitada, degut en part a l'ús de dades d'array simulades. Per altra banda, una limitació habitual del rocessament d'arrays de micròfons és que es necessita una estimació versemblant de la posició del locutor per a poder apuntar correctament cap a la posició d'interès. A més, el coneixement de la posició de les fonts acústiques que poden estar presents en una sala és una informació que pot ser aprofitada per altres serveis que es desenvolupen en les sales intel.ligents, com per exemple per a apuntar automàticament una càmara en vídeo-conferencies. Afortunadament, existeixen nombrosos mètodes que permeten sol.lucionar el problema del seguiment de fonts acústiques basant-se en les senyals capturades per múltiples micròfons.Concretament, a la tesis es desenvolupa un sistema robust de localització de locutor basat en un dels algorismes actuals de major èxit que consisteix en computar la versemblança de cada possible posició basant-se en les estimacions de les correlaciones creuades generalitzades entre parelles de micròfons. El sistema proposat incorpora principalment dues novetats. Primer, les correlacions creuades es calculen de forma adaptativa basant-se en las velocitats estimades de les fonts. Aquest càlcul adaptatiu es realitza de manera que es minimitzi l'efecte de les diferents dinàmiques de les fonts presents en la sala en el resultat de la localització. Segon, es proposa l'ús d'un mètode accelerat per al càlcul de la posició basat en estratègies de cerca de menor a major resolució tant en el domini espacial com en el freqüencial. De fet, es mostra que la relació entre resolució espacial i l'ample de banda considerat en el càlcul de les correlacions creuades és un aspecte fonamental a tenir en compte en l'aplicació adequada d'aquest tipus d'estratègies ràpides. Les dues novetats comentades permeten que el sistema proposat assoleixi uns resultats raonablement bons quan s'evalúa en escenaris relativament controlats i amb pocs locutors que no se solapin. A més, la conveniència del sistema de localització acústica proposat queda de manifest si s'atenen els destacats resultats que es van obtenir en una evaluació internacional.Finalment, a la tesis també s'estudia el problema de l'estimació de l'orientació del locutor en base a las senyals rebudes per múltiples micròfons, en el context del desenvolupament de noves tecnologies que poden aportar informació addicional per als sistemes que potencialment poden actuar en sales intel.ligents. En concret, es proposen i comparen dos mètodes completament diferents. Por una banda, mètodes sofisticats basats en l'estimació conjunta de la posició i de l'orientació permeten assolir estimacions acceptables a canvi d'un elevat cost computacional. Per altra banda, els mètodes més simples que es basen en consideracions sobre el diagrama de radiació de la parla encara que no són capaços d'assolir les prestacions dels mètodes sofisticats, també poden resultar adequats en alguns casos, como ara quan es coneix la posició amb antelació, o bé quan la despesa computacional està limitada. En tots dos casos, els resultats obtinguts permeten ser optimistes de cara al futur desenvolupament de nous algorismes adreçats a l'estimació de l'orientació del locutor. / Los avances recientes en tecnología informática y procesado del habla y del lenguaje, entre otros, han hecho posible que nuevos modos de comunicación entre las personas y las máquinas empiecen a parecer factibles. Concretamente, el interés en el desarrollo de nuevas aplicaciones en entornos cerrados equipados con múltiples sensores multimodales, también conocidos como salas inteligentes, ha aumentado considerablemente en los últimos tiempos. En general, es bien sabido que la calidad de las señales de habla capturadas por micrófonos que pueden encontrarse a varios metros de distancia de los locutores se ve severamente degradada por el ruido acústico y por la reverberación de la sala. En el contexto del desarrollo de aplicaciones del habla en entornos de salas inteligentes, el uso de sensores que no sean molestos es un requisito habitual. Es decir, normalmente no está permitido o no es posible usar micrófonos cercanos o de solapa, y por lo tanto, las tecnologías del habla desarrolladas tienen que basarse en las señales capturadas por micrófonos lejanos. En estas situaciones, las tecnologías del habla que habitualmente funcionan razonablemente bien en entornos libres de ruido y reverberación sufren un descenso drástico en sus prestaciones. En esta tesis se investigan métodos multi micrófono para solventar los problemas que provoca el uso de micrófonos lejanos en las aplicaciones del habla que habitualmente se desarrollan en salas inteligentes. Concretamente, se estudia el procesado de arrays de micrófonos como un método posible de aprovechar la disponibilidad de múltiples micrófonos para obtener señales de voz mejoradas. Mediante la correcta combinación de las señales que inciden en una agrupación de micrófonos, el procesado de arrays permite apuntar direcciones espaciales concretas a la vez que otras se rechazan.Para la mejora del habla con arrays de micrófonos, en la tesis se propone el uso de un nuevo esquema robusto de conformación que integra en una sóla etapa un conformador adaptativo y una etapa de post-filtrado de Wiener. Los resultados obtenidos muestran que el conformador propuesto es una solución adecuada para entornos muy ruidosos y que, en general, es preferible al uso convencional de etapas de post-filtrado a la salida de un conformador adaptativo. Sin embargo, el conformador muestra cierta degradación de la señal de voz que puede afectar a su utilidad para aplicaciones de reconocimiento del habla, especialmente cuando el ruido no es demasiado importante.A continuación se investiga el uso específico de arrays de micrófonos para el reconocimiento del habla en entornos de salas inteligentes. Se demuestra que el uso convencional de arrays de micrófonos para reconocimiento del habla, que consiste en su aplicación en dos etapas independientes, no aporta una mejora significativa respecto al uso de técnicas mono canal, especialmente, si el reconocedor está adaptado a las condiciones reales del entorno acústico. En la tesis se hace énfasis en la necesidad de que el reconocimiento del habla incorpore información de la conformación con arrays de micrófonos, o alternativamente, que los conformadores incorporen información del reconocimiento del habla. Más concretamente, se propone el uso de datos capturados por un array de micrófonos y luego procesados por un conformador para la construcción de los modelos acústicos, para de esta manera, obtener un mayor beneficio de los arrays. La aplicación del esquema propuesto de adaptación con datos conformados de un array de micrófonos permite obtener una mejora considerable en un sistema de reconocimiento dependiente de locutor, mientras que en el caso de un sistema independiente de locutor sólo se obtiene una mejora muy limitada, debido en parte al uso de datos de array simulados.Por otro lado, una limitación habitual del procesado de arrays de micrófonos es que se necesita una estimación verosímil de la posición del locutor para poder apuntar correctamente hacia la posición de interés. Además, el conocimiento de la posición de las fuentes acústicas que puedan estar presentes en una sala es una información que puede ser aprovechada por otros servicios que se desarrollan en las salas inteligentes, como por ejemplo para apuntar automáticamente una cámara en vídeo-conferencias. Afortunadamente, existen numerosos métodos que permiten resolver el problema del seguimiento de fuentes acústicas basándose en las señales capturadas por múltiples micrófonos. Concretamente, en la tesis se desarrolla un sistema robusto de localización de locutor basado en uno de los algoritmos actuales de mayor éxito consistente en el cómputo de la verosimilitud de cada posible posición basándose en las estimaciones de las correlaciones cruzadas generalizadas entre pares de micrófonos. El sistema propuesto incorpora principalmente dos novedades. Primero, las correlaciones cruzadas se calculan de forma adaptativa basándose en las velocidades estimadas de las fuentes. Este cálculo adaptativo se hace de manera que se minimice el efecto de las diferentes dinámicas de las fuentes presentes en la sala en el resultado de la localización. Segundo, se propone el uso de un método acelerado para el cálculo de la posición basado en estrategias de búsqueda de menor a mayor resolución tanto en el dominio espacial como frecuencial. De hecho, se muestra que la relación entre resolución espacial y el ancho de banda considerado en el cálculo de las correlaciones cruzadas es un aspecto fundamental a tener en cuenta en la aplicación adecuada de este tipo de estrategias rápidas. Las dos novedades comentadas permiten que el sistema propuesto alcance unos resultados razonablemente buenos cuando se evalúa en escenarios relativamente controlados y con pocos locutores que no se solapan. Además, la conveniencia del sistema de localización acústica propuesto queda de manifiesto si se atiende a los destacados resultados que se obtuvieron en una evaluación internacional. Finalmente, en la tesis también se estudia el problema de la estimación de la orientación del locutor en base a las señales capturadas por múltiples micrófonos en el contexto del desarrollo de nuevas tecnologías que puedan aportar información adicional para los sistemas que potencialmente pueden actuar en salas inteligentes. En concreto, se proponen y comparan dos métodos completamente diferentes. Por un lado, métodos sofisticados basados en la estimación conjunta de la posición y de la orientación que permiten obtener estimaciones aceptables a cambio de un elevado coste computacional. Por otro lado, los métodos más simples que se basan en consideraciones sobre el diagrama de radiación del habla aunque no son capaces de igualar las prestaciones de los métodos sofisticados, también pueden resultar adecuados en algunos casos, como cuando se sabe la posición de antemano o cuando la complejidad computacional está limitada. En ambos casos, los resultados obtenidos permiten ser optimistas de cara al futuro desarrollo de nuevos algoritmos dedicados a la estimación de la orientación del locutor. / Recent advances in computer technology and speech and language processing have made possible that some new ways of person-machine communication and computer assistance to human activities start to appear feasible. Concretely, the interest on the development of new challenging applications in indoor environments equipped with multiple multimodal sensors, also known as smart-rooms, has considerably grown. In general, it is well-known that the quality of speech signals captured by microphones that can be located several meters away from the speakers is severely distorted by acoustic noise and room reverberation. In the context of the development of hands-free speech applications in smart-room environments, the use of obtrusive sensors like close-talking microphones is usually not allowed, and consequently, speech technologies must operate on the basis of distant-talking recordings. In such conditions, speech technologies that usually perform reasonably well in free of noise and reverberation environments show a dramatically drop of performance.In this thesis, the use of a multi-microphone approach to solve the problems introduced by far-field microphones in speech applications deployed in smart-rooms is investigated. Concretely, microphone array processing is investigated as a possible way to take advantage of the multi-microphone availability in order to obtain enhanced speech signals. Microphone array beamforming permits targeting concrete desired spatial directions while others are rejected, by means of the appropriate combination of the signals impinging a microphone array. A new robust beamforming scheme that integrates an adaptive beamformer and a Wiener post-filter in a single stage is proposed for speech enhancement. Experimental results show that the proposed beamformer is an appropriate solution for high noise environments and that it is preferable to conventional post-filtering of the output of an adaptive beamformer. However, the beamformer introduces some distortion to the speech signal that can affect its usefulness for speech recognition applications, particularly in low noise conditions. Then, the use of microphone arrays for specific speech recognition purposes in smart-room environments is investigated. It is shown that conventional microphone array based speech recognition, consisting on two independent stages, does not provide a significant improvement with respect to single microphone approaches, especially if the recognizer is adapted to the actual acoustic environmental conditions. In the thesis, it is pointed out that speech recognition needs to incorporate information about microphone array beamformers, or otherwise, beamformers need to incorporate speech recognition information. Concretely, it is proposed to use microphone array beamformed data for acoustic model construction in order to take more benefit from microphone arrays. The result obtained with the proposed adaptation scheme with beamformed enrollment data shows a remarkable improvement in a speaker dependent recognition system, while only a limited enhancement is achieved in a speaker independent recognition system, partially due to iii the use of simulated microphone array data.On the other hand, a common limitation of microphone array processing is that a reliable speaker position estimation is needed to correctly steer the beamformer towards the position of interest. Additionally, knowledge about the location of the audio sources present in a room is information that can be exploited by other smart-room services, such as automatic video steering in conference applications. Fortunately, audio source tracking can be solved on the basis of multiple microphone captures by means of several different approaches. In the thesis, a robust speaker tracking system is developed based on successful state of the art SRP-PHAT algorithm, which computes the likelihood of each potential source position on the basis of the generalized cross-correlation estimations between pairs of microphones. The proposed system mainly incorporates two novelties: firstly, cross-correlations are adaptively computed based on the estimated velocities of the sources. The adaptive computation permits minimizing the influence of the varying dynamics of the speakers present in a room on the overall localization performance. Secondly, an accelerated method for the computation of the source position based on coarse-to-fine search strategies in both spatial and frequency dimensionalities is proposed. It is shown that the relation between spatial resolution and cross-correlation bandwidth is a matter of major importance in this kind of fast search strategies. Experimental assessment shows that the two novelties introduced permit achieving a reasonably good tracking performance in relatively controlled environments with few non-overlapping speakers. Additionally, the remarkable results obtained by the proposed audio tracker in an international evaluation confirm the convenience of the algorithm developed. Finally, in the context of the development of novel technologies that can provide additional cues of information to the potential services deployed in smart-room environments, acoustic head orientation estimation based on multiple microphones is also investigated in the thesis. Two completely different approaches are proposed and compared: on the one hand, sophisticated methods based on the joint estimation of speaker position and orientation are shown to provide a superior performance in exchange of large computational requirements. On the other hand, simple and computationally cheap approaches based on speech radiation considerations are suitable in some cases, such as when computational complexity is limited or when the source position is known beforehand. In both cases, the results obtained are encouraging for future research on the development of new algorithms addressed to the head orientation estimation problem.
|
8 |
Producció de proteïnes recombinants mitjançant la tecnologia Zera® en diferents sistemes eucariotes: desenvolupament d’estratègies de processament.Pallissé Bergwerf, Roser 18 January 2012 (has links)
ERA Biotech S.A. és una empresa que desenvolupa la seva pròpia tecnologia per a la producció de proteïnes i pèptids d’alt valor afegit. El mètode de producció i acumulació de proteïna recombinant es basa en el mecanisme natural d’acumulació de proteïnes de reserva de blat de moro (zeïnes) en orgànuls densos derivats de reticle endoplasmàtic anomenats cossos proteics. La tecnologia Zera® empra el domini ric en prolina de l’extrem N-terminal de la γ-zeïna per induir la formació de novo de cossos proteics heteròlegs en teixits i cèl•lules eucariotes. L’elevada densitat que presenten aquests orgànuls permet una recuperació i enriquiment de la proteïna de fusió d’interès, mitjançant tècniques d’homogeneïtzació i fraccionament cel•lular.
Originàriament dissenyats per permetre la purificació per afinitat del proteïna d’interès, els elements de fusió també poden ajudar a mantenir l’estabilitat, el plegament i la solubilitat del producte. Malgrat tot, per a algunes aplicacions posteriors es requereix la producció de la proteïna nativa, amb el qual són necessàries etapes de proteòlisi mitjançant endoproteases específiques. En un context industrial l’addició d’una proteasa exògena suposa l’etapa més costosa en el procés de producció. A més, les condicions de processament poden arribar a interferir amb l’activitat biològica del component purificat. Un dels objectius principals de moltes empreses dedicades a la producció de proteïnes recombinants, tracta de cercar alternatives al processament convencional per addició de proteases exògenes.
L’objectiu general d’aquest treball s’ha centrat en el desenvolupament i aplicació de dues estratègies de processament aplicades a proteïnes recombinants de fusió produïdes mitjançant la tecnologia Zera®, en diferents sistemes d’expressió.
La primera aproximació ha consistit en la producció d’enteroquinasa bovina (EK), endoproteasa específica, mitjançant la tecnologia Zera®. La producció d’enteroquinasa pròpia evitaria l’adquisició comercial de la mateixa, amb el qual es reduirien els costos globals de producció. S’han dissenyat diferents construccions amb el domini catalític de l’enteroquinasa fusionat al domini Zera® per tal de permetre la seva acumulació en cossos proteics heteròlegs. Degut a la conformació catalítica que adopta, observàrem que el seu extrem N-terminal havia de romandre lliure per tal de mantenir la seva activitat proteolítica. La fusió del domini Zera® al extrem C-terminal d’EK va resultar incompatible amb la viabilitat de les cèl•lules de mamífer o del teixit foliar de tabac, indicant cert grau de citotoxicitat promogut per la proteasa activa. D’altra banda, el bloqueig de l’extrem N-terminal d’EK mitjançant la fusió del domini Zera®, requeria d’una etapa prèvia de processament per tal d’activar la proteasa in vitro. Els baixos nivells d’expressió assolits en cèl•lules de mamífer, juntament amb la baixa idoneïtat de l’estratègia, varen motivar l’exploració d’altres alternatives de processament.
La segona aproximació descrita en aquest treball es basa en l’estudi de l’autoprocessament de proteïnes de fusió mitjançant inteïnes.
Les inteïnes són elements proteics naturals capaços de promoure l’splicing de proteïnes a través d’una sèrie de reaccions que permeten la seva auto-excissió i la unió dels fragments que les flanquegen o exteïnes. Certes modificacions genètiques en residus clau de la seqüència de les inteïnes, han permès modular la seva activitat per permetre l’autoprocessament in vitro de forma controlable. S’ha estudiat l’aplicació de dos tipus diferents d’inteïnes induïbles per al processament de proteïnes de fusió Zera®, en cèl•lules de mamífer, en cèl•lules d’insecte, i en planta de tabac.
El rendiment global del procés de producció de rhGH (com a proteïna model), fou analitzat i comparat emprant dos sistemes de processament diferents sobre la proteïna de fusió Zera® expressada en planta de tabac: el mediat per la inteïna MxeGyrA, i el de la proteasa comercial enteroquinasa. Tot i que els costos globals de producció de rhGH resultaren similars per ambdós processos, el rendiment de producció fou notòriament major en el procés emprant la inteïna. L’èxit de l’aplicació de les inteïnes a la tecnologia Zera®, ha comportat un avenç en el procés de downstream, facilitant de manera significativa la recuperació de la proteïna nativa d’interès. / ERA Biotech S.A. is a biotechnology company whose technology permits high-level production of recombinant proteins and peptides through application of the Zera® assembler peptide. The Zera® domain originates from a maize storage protein (gamma-zein), which naturally accumulates in maize grains in the form of dense protein bodies to elevated levels. The Zera® assembler peptide when fused to a protein of interest triggers the formation in vivo of protein bodies in eukaryotic cells, effectively converting the cells into dense storage organelles. Due to its physicochemical properties, the downstream steps and recovery of the recombinant proteins are extremely efficient.
For some applications in the biopharmaceutical industry, fusion or affinity tags need to be cleaved off by site-specific endoproteases in order to recover the native target protein. At a manufacturing scale, the removal of the fusion tag is the most costly step in protein production (cost and specificity/efficiency issues), and can interfere with the biological activity of the purified component. Therefore novel cleavage options which permit specific, efficient and scalable protein production processes are required.
In the present study we describe two different cleavage strategies that have been adopted for Zera® fusion proteins expressed in different host expression systems.
The first approach was to produce a conventional site-specific endoprotease in house through Zera® technology. Different constructs were designed for the easy and active production of bovine enterokinase (EK) catalytic subunit in mammalian cells and transgenic tobacco plants. Active conformation of this protease was adopted when the N-terminus of the protein was free of any fusion tag, however, proteolytic activity of this protease resulted in cytotoxicity in both host cell systems tested. The fusion of the Zera® domain in the N-terminus of EK and its expression in mammalian cells resulted in the formation de novo of protein bodies accumulating the target fusion protein. Isolation of protein bodies and subsequent downstream steps for protein recovery were designed and set up for this new host system. For the EK activation, a cleavage step by another endoprotease was included, but the low expression levels achieved for this fusion protein, resulted in non-conlcusive data from the activity test. Considering the biochemical properties of this protease its recombinant production for large scale manufacturing results technically cost-unfriendly, so alternative cleavage methods were explored.
The second approach described in the present work, consisted in the use and application of self-cleavable elements for the specific cleavage of Zera® fusion proteins. Inteins are naturally occurring protein elements capable of post-translational self-excission from a precursor protein through a process known as protein splicing. MxeGyrA and SspDnaB mini-inteins have been engineered to yield a controllable N-terminal and C-terminal autocleavage induced under certain controlled conditions. Both inteins have shown activity when fused to Zera® and to a protein of interest in mammalian cells (CHO), insect cells (Sf9) and transgenic tobacco plants. The success of the intein application to the Zera® technology has evolved into a faster and more user friendly downstream step leading to the recovery of a native protein of interest.
|
9 |
New medical registration and segmentation techniques using information-theoretic toolsBardera i Reig, Antoni 20 November 2008 (has links)
El processament d'imatges mèdiques és una important àrea de recerca. El desenvolupament de noves tècniques que assisteixin i millorin la interpretació visual de les imatges de manera ràpida i precisa és fonamental en entorns clínics reals.La majoria de contribucions d'aquesta tesi són basades en Teoria de la Informació. Aquesta teoria tracta de la transmissió, l'emmagatzemament i el processament d'informació i és usada en camps tals com física, informàtica, matemàtica, estadística, biologia, gràfics per computador, etc.En aquesta tesi, es presenten nombroses eines basades en la Teoria de la Informació que milloren els mètodes existents en l'àrea del processament d'imatges, en particular en els camps del registre i la segmentació d'imatges.Finalment es presenten dues aplicacions especialitzades per l'assessorament mèdic que han estat desenvolupades en el marc d'aquesta tesi. / Medical imaging is an important focus of research. The development of new techniques that assist and enhance visual image interpretation in a timely and accurate manner is fundamental in real clinical environments. Most of the contributions of this thesis are based on Information Theory. This theory deals with the transmission, storage and processing of information and it is used in fields such as physics, computer science, mathematics, statistics, economics, biology, computer graphics, etc.In this thesis, several information theoretic tools have been presented in order to improve the existing methods in the image processing area, in particular in the image registration and segmentation fields.Finally, two of the specialized applications for medical assessment which have been developed in the scope of this thesis are presented.
|
10 |
Noves técniques en l'análisi del senyal electrocardiogràfic. Aplicació a l'ECA d'alta revolucióJané Campos, Raimon 10 July 1989 (has links)
L'estudi del senyal electrocardiogràfic (ECG) obtingut mitjançant elèctrodes de superfície és una prova mèdica freqüent que té una gran significació en el diagnòstic de l'activitat cardíaca. Des de la incorporació dels ordinadors als equips d'obtenció i enregistrament de l'ECG, que va provocar un gran impacte en la tecnologia i disseny d'aquests equips, l'anàlisi automàtica del senyal electrocardiogràfic ha estat un problema abordable. Cal precisar, però, que l'anàlisi assistit per computadora de l'ECG convencional no aporta per se nova informació per al diagnòstic respecte a l'observada directament per un cardiòleg.L'Electrocardiografia d'alta resolució (ECGAR) és un camp de recerca recent. Consisteix en la detecció i quantificació de potencials cardíacs de baixa amplitud, que no es poden captar amb els procediments de l'ECG convencional. L'ECGRA requereix el desenvolupament de tècniques de processat digital en el domini temporal i la realització de programes que permetin l'obtenció automàtica de l'activitat cardíaca de baixa amplitud. A més a més cal, per captar el senyal, la utilització d'una instrumentació biomèdica molt superior en prestacions a l'emprada habitualment. Els treballs presentats fins ara efectuen l'estimació dels potencials cardíacs vinculats a les ones d'amplitud més gran dins l'electrocardiograma. La majoria de les realitzacions existents són només aplicables a les ones d'elevada relació senyal-soroll. Aquesta restricció del problema no ha evitat certes deficiències en la qualitat de les estimacions obtingudes. Així s'ha arribat a una baixa coincidència de resultats en certs estudis mèdics comparatitus. Les contribucions existents en aquest tema s'han pres com a referència i punt de partida d'aquesta tesi. El treball presentat en aquesta tesi és una aportació en el camp del processat digital de senyals electrocardiogràfics, emmarcat especialment en l'ECG d'alta resolució. En el primer capítol es fa una descripció detallada del problema, presentant les característiques del senyal i la metodologia per a la seva obtenció. En aquest sentit s'ha proposat i desenvolupat una estructura modular del sistema de processat, on s'han fet contribucions tant en els mètodes emprats com en l'aplicació. En el segon capítol es presenta el tractament de l'ECG d'alta resolució com un problema en el camp dels processos aleatoris. Es descriu la tècnica emprada per a l'estimació dels potencials cardíacs, modelats com la part determinista del procés. Segons aquest enfocament es proposa una estructura del sistema de processat per a l'anàlisi del senyal, que ve desenvolupada en els posteriors capítols. El tercer capítol està dedicat a la detecció d'ones dins del senyal ECG, malgrat les seves variacions al llarg del temps i la contaminació per soroll d'origen biològic o extern. S'ha desenvolupat un sistema de detecció particularitzat per als complexos QRS, que són el conjunt d'ones associades a l'activitat de la contracció ventricular de cada batec cardíac. El sistema proposat s'ha mostrat molt robust, detectant les ones en tot tipus de situacions. Es puntualitzen les aportacions per a aquest detector, tant en el disseny com en l'aplicació. La seva contribució resulta molt útil per a les posteriors etapes de processat.En el quart capítol es presenten uns mètodes d'alineament de senyals orientats al cas dels ECG. En principi es fa una descripció general del problema, descrivint tot seguit els mètodes proposats amb un enfocament original. A continuació s'efectua un estudi de les prestacions d'aquests mètodes en simulació, així com aplicats a senyals reals. Finalment es descriuen els criteris d'aplicabilitat en situacions reals, comprovant el bon funcionament fins i tot per a senyals de baixa relació senyal-soroll. El cinquè capítol està específicament orientat al processat de l'ECG d'alta resolució. Es presenta la metodologia seguida, que també inclou les etapes proposades i descrites en capítols anteriors. A continuació es mostra l'aplicació d'aquestes tècniques a l'obtenció de potencials cardíacs de gran interès mèdic, com són els potencials ventriculars tardans, o diferents potencials vinculats a altres ones de l'ECG. L'aplicació dels mètodes i les etapes de processat presentades per a l'obtenció i tractament de l'ECG d'alta resolució han permès la recuperació de potencials cardíacs de forma fiable, tot i aplicant-lo a senyals de baixa relació senyal-soroll.
|
Page generated in 0.0969 seconds