• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 7
  • 6
  • Tagged with
  • 23
  • 11
  • 9
  • 7
  • 6
  • 6
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Caracterització, reconeixement de patrons i detecció de defectes en textures periòdiques mitjançant anàlisi d'imatges. Aplicació a teixits textils

Escofet Soteras, Jaume 23 September 1999 (has links)
La forta exigència de qualitat a que són sotmesos els productes actuals fa que els processos d'inspecció i control industrial ocupin, cada vegada més, un lloc destacat en la seva fabricació. La indústria relacionada amb els materials de superfície texturada i periòdica (malles metàl·liques, plàstics, paper, làmines, roba, etc.) no és aliena a aquest problema i, en l'actualitat, està esmerçant molts esforços en aquest camp. Un cas representatiu dels materials anteriors, que presenta una ampla problemàtica en quan a inspecció i control així com una elevada exigència de qualitat en l'acabat, és el teixit tèxtil.La majoria de defectes que es produeixen en el procés productiu d'un material tèxtil, com en tants altres materials i productes industrials, són detectats encara per inspectors humans. La seva feina és, en general, molt repetitiva i rutinària i, moltes vegades, el consum de temps que hi dediquen és molt elevat. A més cal fixar l'atenció en petits detalls situats en un camp extens, que sovint es troba en moviment, el que acaba produint fatiga visual en l'operari.En les últimes dècades, gràcies al gran desenvolupament tecnològic que hi ha hagut, estem assistint a una sèrie d'avenços, molt ràpids i de gran abast, en el món dels processos d'automatització i control. A conseqüència d'això, cada vegada el procés de producció és més ràpid, el que requereix que el control de qualitat també ho sigui.L'interès industrial en automatitzar les operacions d'inspecció és cada vegada més gran. A tall d'exemple la fira tèxtil internacional que reuneix més interès i expectació a nivell mundial, ITMA-99, celebrada aquest any a París, mostrava en els seus stands diferents productes dedicats a l'automatització dels processos d'inspecció i control de qualitat. Entre les ofertes d'aquesta fira cal citar una gran varietat d'instruments i dispositius: sensors òptics per inspeccionar la qualitat del fil en temps real en processos de filatura, espectrecolorímetres acoblats a l'estampadora i a la màquina de tintar per determinar amb més precisió el color, cameres lineals i cameres 2-D ultraràpides per detectar fils trencats en ordidors. En el camp del tissatge s'ha començat a veure en aquesta fira un sistema d'inspecció format per un conjunt (10 o 12) de cameres 2-D, situades damunt del teler, que detecta defectes locals que es poden produir en la roba durant el procés de producció. Des de la penúltima fira (ITMA-94) ha sigut novetat una màquina de repassar automàtica, on un sistema digital de processat format per 4 cameres i un potent ordinador, permet detectar una més ampla varietat de defectes locals i amb una velocitat nominal que pot arribar fins a 300 metres de roba per minut. Malgrat tot, les novetats aportades per la fira presenten grans limitacions: preu elevat, infrastructura complexa en la captació i processat de la imatge i, els resultats que s'obtenen només han estat validats per casos limitats (teixit de plana i d'un sol color). A més, si es té en compte que molts processos de producció són de tirada curta, canviant constantment el tipus d'article del teler, es necessita un sistema que sigui robust i versàtil, capaç de treballar amb diferents lligaments i colors i que el seu cost sigui més baix que el dels productes actuals.Revisant la última dècada, la més rellevant en el desenvolupament d'aquestes tecnologies, s'observa un clar increment en l'aplicació de tècniques de processat digital de la imatge a l'anàlisi de mostres texturades [Brzakovic-1992]. En el cas de la inspecció de materials tèxtils Chetverikov [Chetverikov-1988] desenvolupà un procés d'inspecció automàtica en teixits tèxtils que combina l'anàlisi de textures i la segmentació d'imatges. Neubauer [Neubauer-1992] segmentà defectes en mostres reals amb l'ajut d'una camera lineal i una xarxa neuronal. Siew et al. [Siew-1988] mesuraren les característiques texturals en catifes a partir d'estadístiques de primer i segon ordre aplicades als nivells de grisos de la imatge. Zhang i Bresse [Zhang-1995] detectaren i classificaren nusos, carreres i trencades mitjançant l'autocorrelació i operacions de morfologia matemàtica. Tsai et al. [Tsai-1995] detectaren i classificaren exactament quatre classes de defectes en teixits tèxtils utilitzant matrius de co-ocurrència i xarxes neuronals. Xu [Xu-1997] mesurà la rugositat en les superfícies de catifes a partir de la dimensió fractal de la imatge. Mitjançant tècniques combinades de filtrat Gaussià, umbralització, equalització de l'histograma i autocorrelació Kang et al. [Kang-1999] determinaren densitats lineals de fils en els direccions de trama i ordit per teixits de plana.La inspecció de materials texturats quasiperiòdics i, en particular els tèxtils, mitjançant tècniques de processat òptic-digital de la imatge és un camp d'investigació relativament poc treballat i que presenta un interès renovat. En aquest apartat es troben poques contribucions entre les que cal destacar Kang et al. [Kang-1999] que trobaven directament, a partir de la llum transmesa pel teixit, el punt de creuament dels fils en teixits de plana i Ciamberlini [Ciamberlini-1996] que operava amb la TF òptica de la llum transmesa pel teixit.Les eines que actualment estan al mercat són insuficients i es centren principalment en la resolució d'un aspecte: la detecció de defectes locals. En la literatura no és troben plantejaments generals que abastin des de models i procediments per caracteritzar les estructures fins a mecanismes que determinin la seva evolució o resistència davant d'agressions, la detecció de defectes globals en l'estructura i la detecció de defectes locals. Creiem que aquest plantejament general, que pot ser vàlid per a una gran varietat de materials, és també necessari. En aquest treball s'han aplicat, principalment a materials tèxtils, un conjunt d'eines inspirades en aquest plantejament.
12

Limit of detection for second-order calibration methods

Rodríguez Cuesta, Mª José 02 June 2006 (has links)
Analytical chemistry can be split into two main types, qualitative and quantitative. Most modern analytical chemistry is quantitative. Popular sensitivity to health issues is aroused by the mountains of government regulations that use science to, for instance, provide public health information to prevent disease caused by harmful exposure to toxic substances. The concept of the minimum amount of an analyte or compound that can be detected or analysed appears in many of these regulations (for example, to discard the presence of traces of toxic substances in foodstuffs) generally as a part of method validation aimed at reliably evaluating the validity of the measurements.The lowest quantity of a substance that can be distinguished from the absence of that substance (a blank value) is called the detection limit or limit of detection (LOD). Traditionally, in the context of simple measurements where the instrumental signal only depends on the amount of analyte, a multiple of the blank value is taken to calculate the LOD (traditionally, the blank value plus three times the standard deviation of the measurement). However, the increasing complexity of the data that analytical instruments can provide for incoming samples leads to situations in which the LOD cannot be calculated as reliably as before.Measurements, instruments and mathematical models can be classified according to the type of data they use. Tensorial theory provides a unified language that is useful for describing the chemical measurements, analytical instruments and calibration methods. Instruments that generate two-dimensional arrays of data are second-order instruments. A typical example is a spectrofluorometer, which provides a set of emission spectra obtained at different excitation wavelengths.The calibration methods used with each type of data have different features and complexity. In this thesis, the most commonly used calibration methods are reviewed, from zero-order (or univariate) to second-order (or multi-linears) calibration models. Second-order calibration models are treated in details since they have been applied in the thesis.Concretely, the following methods are described:- PARAFAC (Parallel Factor Analysis)- ITTFA (Iterative Target Transformation Analysis)- MCR-ALS (Multivariate Curve Resolution-Alternating Least Squares)- N-PLS (Multi-linear Partial Least Squares)Analytical methods should be validated. The validation process typically starts by defining the scope of the analytical procedure, which includes the matrix, target analyte(s), analytical technique and intended purpose. The next step is to identify the performance characteristics that must be validated, which may depend on the purpose of the procedure, and the experiments for determining them. Finally, validation results should be documented, reviewed and maintained (if not, the procedure should be revalidated) as long as the procedure is applied in routine work.The figures of merit of a chemical analytical process are 'those quantifiable terms which may indicate the extent of quality of the process. They include those terms that are closely related to the method and to the analyte (sensitivity, selectivity, limit of detection, limit of quantification, ...) and those which are concerned with the final results (traceability, uncertainty and representativity) (Inczédy et al., 1998). The aim of this thesis is to develop theoretical and practical strategies for calculating the limit of detection for complex analytical situations. Specifically, I focus on second-order calibration methods, i.e. when a matrix of data is available for each sample.The methods most often used for making detection decisions are based on statistical hypothesis testing and involve a choice between two hypotheses about the sample. The first hypothesis is the "null hypothesis": the sample is analyte-free. The second hypothesis is the "alternative hypothesis": the sample is not analyte-free. In the hypothesis test there are two possible types of decision errors. An error of the first type occurs when the signal for an analyte-free sample exceeds the critical value, leading one to conclude incorrectly that the sample contains a positive amount of the analyte. This type of error is sometimes called a "false positive". An error of the second type occurs if one concludes that a sample does not contain the analyte when it actually does and it is known as a "false negative". In zero-order calibration, this hypothesis test is applied to the confidence intervals of the calibration model to estimate the LOD as proposed by Hubaux and Vos (A. Hubaux, G. Vos, Anal. Chem. 42: 849-855, 1970).One strategy for estimating multivariate limits of detection is to transform the multivariate model into a univariate one. This strategy has been applied in this thesis in three practical applications:1. LOD for PARAFAC (Parallel Factor Analysis).2. LOD for ITTFA (Iterative Target Transformation Factor Analysis).3. LOD for MCR-ALS (Multivariate Curve Resolution - Alternating Least Squares)In addition, the thesis includes a theoretical contribution with the proposal of a sample-dependent LOD in the context of multivariate (PLS) and multi-linear (N-PLS) Partial Least Squares. / La Química Analítica es pot dividir en dos tipus d'anàlisis, l'anàlisi quantitativa i l'anàlisi qualitativa. La gran part de la química analítica moderna és quantitativa i fins i tot els govern fan ús d'aquesta ciència per establir regulacions que controlen, per exemple, nivells d'exposició a substàncies tòxiques que poden afectar la salut pública. El concepte de mínima quantitat d'un analit o component que es pot detectar apareix en moltes d'aquestes regulacions, en general com una part de la validació dels mètodes per tal de garantir la qualitat i la validesa dels resultats.La mínima quantitat d'una substància que pot ser diferenciada de l'absència d'aquesta substància (el que es coneix com un blanc) s'anomena límit de detecció (limit of detection, LOD). En procediments on es treballa amb mesures analítiques que són degudes només a la quantitat d'analit present a la mostra (situació d'ordre zero) el LOD es pot calcular com un múltiple de la mesura del blanc (tradicionalment, 3 vegades la desviació d'aquesta mesura). Tanmateix, l'evolució dels instruments analítics i la complexitat creixent de les dades que generen, porta a situacions en les que el LOD no es pot calcular fiablement d'una forma tan senzilla. Les mesures, els instruments i els models de calibratge es poden classificar en funció del tipus de dades que utilitzen. La Teoria Tensorial s'ha utilitzat en aquesta tesi per fer aquesta classificació amb un llenguatge útil i unificat. Els instruments que generen dades en dues dimensions s'anomenen instruments de segon ordre i un exemple típic és l'espectrofluorímetre d'excitació-emissió, que proporciona un conjunt d'espectres d'emissió obtinguts a diferents longituds d'ona d'excitació.Els mètodes de calibratge emprats amb cada tipus de dades tenen diferents característiques i complexitat. En aquesta tesi, es fa una revisió dels models de calibratge més habituals d'ordre zero (univariants), de primer ordre (multivariants) i de segon ordre (multilinears). Els mètodes de segon ordre estan tractats amb més detall donat que són els que s'han emprat en les aplicacions pràctiques portades a terme. Concretament es descriuen:- PARAFAC (Parallel Factor Analysis)- ITTFA (Iterative Target Transformation Analysis)- MCR-ALS (Multivariate Curve Resolution-Alternating Least Squares)- N-PLS (Multi-linear Partial Least Squares)Com s'ha avançat al principi, els mètodes analítics s'han de validar. El procés de validació inclou la definició dels límits d'aplicació del procediment analític (des del tipus de mostres o matrius fins l'analit o components d'interès, la tècnica analítica i l'objectiu del procediment). La següent etapa consisteix en identificar i estimar els paràmetres de qualitat (figures of merit, FOM) que s'han de validar per, finalment, documentar els resultats de la validació i mantenir-los mentre sigui aplicable el procediment descrit.Algunes FOM dels processos químics de mesura són: sensibilitat, selectivitat, límit de detecció, exactitud, precisió, etc. L'objectiu principal d'aquesta tesi és desenvolupar estratègies teòriques i pràctiques per calcular el límit de detecció per problemes analítics complexos. Concretament, està centrat en els mètodes de calibratge que treballen amb dades de segon ordre.Els mètodes més emprats per definir criteris de detecció estan basats en proves d'hipòtesis i impliquen una elecció entre dues hipòtesis sobre la mostra. La primera hipòtesi és la hipòtesi nul·la: a la mostra no hi ha analit. La segona hipòtesis és la hipòtesis alternativa: a la mostra hi ha analit. En aquest context, hi ha dos tipus d'errors en la decisió. L'error de primer tipus té lloc quan es determina que la mostra conté analit quan no en té i la probabilitat de cometre l'error de primer tipus s'anomena fals positiu. L'error de segon tipus té lloc quan es determina que la mostra no conté analit quan en realitat si en conté i la probabilitat d'aquest error s'anomena fals negatiu. En calibratges d'ordre zero, aquesta prova d'hipòtesi s'aplica als intervals de confiança de la recta de calibratge per calcular el LOD mitjançant les fórmules d'Hubaux i Vos (A. Hubaux, G. Vos, Anal. Chem. 42: 849-855, 1970)Una estratègia per a calcular límits de detecció quan es treballa amb dades de segon ordre es transformar el model multivariant en un model univariant. Aquesta estratègia s'ha fet servir en la tesi en tres aplicacions diferents::1. LOD per PARAFAC (Parallel Factor Analysis).2. LOD per ITTFA (Iterative Target Transformation Factor Analysis).3. LOD per MCR-ALS (Multivariate Curve Resolution - Alternating Least Squares)A més, la tesi inclou una contribució teòrica amb la proposta d'un LOD que és específic per cada mostra, en el context del mètode multivariant PLS i del multilinear N-PLS.
13

Detecció i anàlisi de les necessitats formatives del docent universitari. Un estudi de casos múltiple

Aránega Español, Susanna 16 December 2011 (has links)
La Universitat és, des de la seva creació, l’organització encarregada de crear i divulgar el coneixement existent en la societat i alhora de formar professionals pel intervenir en la societat del present i del futur. En un moment social de canvis constants i vertiginosos on el coneixement i el món laboral va prenent formes diverses dia a dia, es creen tendències innovadores que ajustin les funcions de les institucions als requeriments de la societat del moment. La institució universitària no està exempta d’aquestes inèrcies innovadores. Als canvis diversos que es produeixen en tots els àmbits de la societat del moment, s’hi sumen les exigències fruit de l’adjunció als espais internacionals d’educació superior. Els objectius d’aconseguir l’adquisició de competències diverses en els estudiants, a més dels coneixements indispensables per obtenir l’acreditació, provoquen la necessitat de que els docents reflexionin sobre la seva pràctica diària i si s’escau, implementin modificacions. Front aquest encàrrec la institució ha de vetllar perquè els professionals que gestionen el coneixement compleixin el seu encàrrec el millor possible oferint tot allò que necessitin per a realitzar les seves funcions amb la màxima qualitat. Part de la consecució d’aquesta fita té a veure amb l’aportació d’una formació adequada dels agents protagonistes: els docents. Una formació planificada i dissenyada per a cobrir totes les necessitats que genera el propi sistema com les que puguin sentir els propis docents. Intuïtivament i de manera racional es podria afirmar que la formació més adequada seria la que proporcionés als docents tot allò que els manca per a fer la seva activitat professional però, qui és qui expressa aquest detall: la pròpia institució o els mateixos docents? La formació ha de partir del que la institució creu que els docents no tenen o ha de facilitar respostes als problemes que tenen els docents en executar les seves activitats diàries? Fins a quin punt el professorat actual se sent preparat per a gestionar els canvis que se li exigeixen? Tenen els docents la preparació pedagògica per implementar modificacions en les seves pràctiques? Els docents que actualment exerceixen a la Universitat tenen la formació pedagògica suficient per a donar resposta als requeriments emergents? Dissenyar una formació sense preguntar quins són els problemes que tenen els directament afectats, podria ser un disseny avocat al fracàs. Així doncs, el primer que cal esbrinar és quina necessitat tenen els docents universitaris de qualsevol camp de coneixement de formar-se pedagògicament per a adaptar-se a les demandes diverses -i si responen positivament-, cercar quines són aquestes necessitats concretes. No seria correcte, ni coherent, dissenyar un pla de formació sense conèixer les fortaleses, debilitats i necessitats del sistema i dels professionals que han estat i estan en l’exercici de la seva professió. Cal tenir present a quins destinataris s’adreça i en quin context estan ubicats i quina formació pedagògica s’està oferint des de la formació inicial i des de la formació permanent en la institució universitària. A partir d’aquestes informacions es pot començar a escriure el full de ruta adequat a cada circumstància, facilitant la planificació de les possibles accions sense caure en el parany de crear una formació inadequada per a professionals que no ho necessiten, o planificar una formació en destreses que ja posseeixen els receptors. Conèixer en profunditat les necessitats és bàsic per a dissenyar una estructura formativa que, recolzada des de l’Administració doni l’embranzida necessària per engegar els diferents projectes ajustats a cada realitat. / Ever since universities were created, they have been entrusted with the tasks of creating and passing on the sum of society’s knowledge, and of training professionals to fulfil certain functions in society, both now and in the future. These days society is undergoing constant and vertiginous change, with knowledge and working practices transforming by the day, and we are seeing innovative trends in institutions as they adapt to its current requirements. Universities are no exception. Not only must they meet the needs of a changing society, but they also have to address the demands of an increasingly international higher education, which emphasises student acquisition of skills, as well as the knowledge needed to obtain qualifications. Faced with this responsibility, universities must ensure that their teaching staff fulfil their duties to the best of their abilities, and provide them with everything they need in order to do so. Achieving this goal has to do in part with providing suitable training, but what should this training consist of? Should we take into account the needs of the institution, or the needs of the teachers themselves? To what extent does the current teaching body feel prepared to manage the changes demanded of them? Do teachers have the educational background they need in order to improve their practices? A training program that does not address the problems of those directly affected is likely to be doomed to failure. It is therefore essential to establish firstly whether there is a need to provide university teaching staff in any given field with training in order to be able to adapt to the various demands placed on them, and if there is, to find out their specific needs. This information can be used to design a “road map” for each particular circumstance, making it possible to plan possible actions without falling into the trap of creating an unsuitable training program that is irrelevant to the professionals concerned, or of providing training in skills that the recipients already possess.
14

Socioeconomic inequalities in the use of health care services in Europe : the role of public coverage and population-based cancer screening programmes

Palència Fernàndez, Laia 18 December 2012 (has links)
The aim of this thesis was to describe inequalities in the use of different health care services according to socioeconomic position (SEP) in Catalonia, Spain and Europe. In addition, we intended to assess whether the public coverage of the services, in particular dental health care, has an influence on the magnitude of inequalities in the use of such services. Finally, we aimed to determine the influence of population-based female cancer screening programmes on the prevalence of screening and on the extent of inequality. To accomplish these objectives four studies were carried out. The sources of information of the four studies were, respectively: several editions of the Catalan Health general practitioner (GP) services are equitable or manual classes use them to a greater extent. However, there are marked SEP inequalities in the use of outpatient specialist services, especially in dental care. Socioeconomic inequalities in use of dental care services exist throughout Europe, but they are larger in countries in which dental care is not covered at all by the public health care system than in countries in which dental care is partially covered. In Europe, socioeconomic inequalities in breast and cervical cancer screening are not found in countries with population-based screening programmes but they are found in those countries with only regional or pilot programmes and in those countries with opportunistic screening. / L'objectiu d'aquesta tesi era descriure les desigualtats en l'ús de diferents serveis sanitaris segons la posició socioeconòmica a Catalunya, Espanya i a Europa. A més a més, es volia avaluar si la cobertura pública dels serveis, en particular la dels serveis dentals, infuencia la magnitud de les desigualtats socioeconòmiques en l'ús d'aquests serveis. Finalment, es va voler determinar la influència dels programes poblacionals de cribratge dels càncers de mama i cèrvix en la prevalença de cribratge i en la magnitud de les desigualtats. Per tal d'assolir aquests objectius es van dur a terme 4 estudis. Les fonts d'informació d'aquests estudis van ser, respectivament: diferents edicions de l'Enquesta de Salut de Catalunya (ESCA), diferents edicions de l'Enquesta Nacional de Salut d'Espanya (ENS), l'Enquesta de Salut, Envelliment i Jubilació a Europa (SHARE) 2006 i dades dels països europeus que van participar a l'Enquesta Mundial de la Salut de l'OMS l'any 2002. Els dos primers estudis eren estudis de tendències mentre que els dos últims van ser transversals. En tots els estudis les desigualtats socioeconòmiques es van mesurar mitjançant índexos relatius (RII) i absoluts (SII) de desigualtat. Els resultats d'aquests estudis mostren que a Catalunya i a Espanya els serveis d'atenció primària són equitatius o fins i tot les persones de classes manuals en presenten una major proporció d'ús. Tanmateix, hi ha marcades desigualtats en visites a l'especialista, en especial en les visites al dentista. Les desigualtats socioeconòmiques en la utilització dels serveis dentals existeixen a tota Europa, però són més grans en aquells països on l'atenció dental no està coberta pel sistema públic de salut que en aquells països on aquesta està parcialment coberta. A Europa, no es troben desigualtats socioeconòmiques en el cribratge dels càncers de mama i cèrvix en aquells països amb programes poblacionals de cribratge, però sí que es troben en aquells països amb programes pilot o regionals o amb només cribratge oportunista.
15

Development of molecular-based techniques for the detection, identification and quantification of food-borne pathogens

Rodríguez Lázaro, David 18 June 2004 (has links)
La presencia de microorganismos patógenos en alimentos es uno de los problemas esenciales en salud pública, y las enfermedades producidas por los mismos es una de las causas más importantes de enfermedad. Por tanto, la aplicación de controles microbiológicos dentro de los programas de aseguramiento de la calidad es una premisa para minimizar el riesgo de infección de los consumidores. Los métodos microbiológicos clásicos requieren, en general, el uso de pre-enriquecimientos no-selectivos,enriquecimientos selectivos, aislamiento en medios selectivos y la confirmación posterior usando pruebas basadas en la morfología, bioquímica y serología propias de cada uno de los microorganismos objeto de estudio. Por lo tanto, estos métodos son laboriosos, requieren un largo proceso para obtener resultados definitivos y, además, no siempre pueden realizarse. Para solucionar estos inconvenientes se han desarrollado diversas metodologías alternativas para la detección identificación y cuantificación de microorganismos patógenos de origen alimentario, entre las que destacan los métodosinmunológicos y moleculares. En esta última categoría, la técnica basada en la reacción en cadena de la polimerasa (PCR) se ha convertido en la técnica diagnóstica más popular en microbiología, y recientemente, la introducción de una mejora de ésta, la PCR a tiempo real, ha producido una segunda revolución en la metodología diagnóstica molecular, como pude observarse por el número creciente de publicaciones científicas y la aparición continua de nuevos kits comerciales. La PCR a tiempo real es unatécnica altamente sensible -detección de hasta una molécula- que permite la cuantificación exacta de secuencias de ADN específicas de microorganismos patógenos de origen alimentario. Además, otras ventajas que favorecen su implantación potencial en laboratorios de análisis de alimentos son su rapidez, sencillez y el formato en tubo cerrado que puede evitar contaminaciones post-PCR y favorece la automatización y un alto rendimiento. En este trabajo se han desarrollado técnicas moleculares (PCR y NASBA) sensibles y fiables para la detección, identificación y cuantificación de bacterias patogénicas de origen alimentario (Listeria spp., Mycobacterium avium subsp. paratuberculosis y Salmonella spp.). En concreto, se han diseñado y optimizado métodos basados en la técnica de PCR a tiempo real para cada uno de estos agentes: L. monocytogenes, L. innocua, Listeria spp. M. avium subsp. paratuberculosis, y también se ha optimizado yevaluado en diferentes centros un método previamente desarrollado para Salmonella spp. Además, se ha diseñado y optimizado un método basado en la técnica NASBA para la detección específica de M. avium subsp. paratuberculosis. También se evaluó la aplicación potencial de la técnica NASBA para la detección específica de formas viables de este microorganismo. Todos los métodos presentaron una especificidad del 100 % con una sensibilidad adecuada para su aplicación potencial a muestras reales de alimentos. Además, se han desarrollado y evaluado procedimientos de preparación de las muestras en productos cárnicos, productos pesqueros, leche y agua. De esta manera se han desarrollado métodos basados en la PCR a tiempo real totalmente específicos y altamente sensibles para la determinación cuantitativa de L. monocytogenes en productoscárnicos y en salmón y productos derivados como el salmón ahumado y de M. avium subsp. paratuberculosis en muestras de agua y leche. Además este último método ha sido también aplicado para evaluar la presencia de este microorganismo en el intestino de pacientes con la enfermedad de Crohn's, a partir de biopsias obtenidas de colonoscopia de voluntarios afectados.En conclusión, este estudio presenta ensayos moleculares selectivos y sensibles para la detección de patógenos en alimentos (Listeria spp., Mycobacterium avium subsp. paratuberculosis) y para una rápida e inambigua identificación de Salmonella spp. La exactitud relativa de los ensayos ha sido excelente, si se comparan con los métodos microbiológicos de referencia y pueden serusados para la cuantificación de tanto ADN genómico como de suspensiones celulares. Por otro lado, la combinación con tratamientos de preamplificación ha resultado ser de gran eficiencia para el análisis de las bacterias objeto de estudio. Por tanto, pueden constituir una estrategia útil para la detección rápida y sensible de patógenos en alimentos y deberían ser una herramienta adicional al rango de herramientas diagnósticas disponibles para el estudio de patógenos de origen alimentario. / The presence of pathogens in foods is among the most serious public health concerns, and the diseases produced by them are a major cause of morbidity. Consequently, the application of microbiological control within the quality assessment programs in the food industry is a premise to minimize the risk of infection for the consumer. Classical microbiological methods involve, in general, the use of a non-selective pre-enrichment, selective enrichment, isolation on selective media, and subsequent confirmation using morphological, biochemical and/or serological tests. Thus, they are laborious, time consuming and not always reliable (e.g. in viable but non-culturable VBNC forms). A number of alternative, rapid and sensitive methods for the detection, identification and quantification of foodborne pathogens have been developed to overcome these drawbacks. PCR has become the most popular microbiological diagnostic method, and recently, the introduction of a development of this technique, RTi-PCR, has produced a second revolution in the molecular diagnostic methodology in microbiology. RTi-PCR is highly sensitive and specific. Moreover, it allows accurate quantification of the bacterial target DNA. Main advantages of RTi-PCR for its application in diagnostic laboratories include quickness, simplicity, the closed-tube format that avoids risks of carryover contaminations and the possibility of high throughput and automation.In this work, specific, sensitive and reliable analytical methods based on molecular techniques (PCR and NASBA) were developed for the detection, identification and quantification of foodborne pathogens (Listeria spp., Mycobacterium avium subsp. paratuberculosis and Salmonella spp.). Real-time PCR based methods were designed and optimised for each one of these target bacteria: L. monocytogenes, L. innocua, Listeria spp. M. avium subsp. paratuberculosis, and also a real-time PCR basedmethod previously described for Salmonella spp. was optimised and multicenter evaluated. In addition, an NASBA-based method was designed and optimised for the specific detection of M. avium subsp. paratuberculosis. The potential application of the NASBA technique for specific detection of viable M. avium subsp. paratuberculosis cells was also evaluated.All the amplification-based methods were 100 % specific and the sensitivity achieved proved to be fully suitable for further application in real food samples. Furthermore, specific pre-amplification procedures were developed and evaluated on meatproducts, seafood products, milk and water samples. Thus, fully specific and highly sensitive real-time PCR-based methods were developed for quantitative detection of L. monocytogenes on meat and meat products and on salmon and cold smoked salmon products; and for quantitative detection of M. avium subsp. paratuberculosis on water and milk samples. The M. avium subsp. paratuberculosis-specific real-time PCR-based method was also applied to evaluate the presence of this bacterium in the bowelof Crohn's disease patients using colonic biopsy specimens form affected and unaffected volunteers. In addition, fully specific and highly sensitive real-time NASBA-based methods were developed for detection of M. avium subsp. paratuberculosis on water and milk samples.In conclusion, this study reports selective and sensitive amplification-based assays for the quantitative detection of foodborne pathogens (Listeria spp., Mycobacterium avium subsp. paratuberculosis and) and for a quick and unambiguously identification of Salmonella spp. The assays had an excellent relative accuracy compared to microbiological reference methods and can be used for quantification of genomic DNA and also cell suspensions. Besides, in combination with sample pre-amplification treatments,they work with high efficiency for the quantitative analysis of the target bacteria. Thus, they could be a useful strategy for a quick and sensitive detection of foodborne pathogens in food products and which should be a useful addition to the range of diagnostic tools available for the study of these pathogens.
16

Desarrollo de métodos rápidos para el análisis de residuos en producción animal

Gratacós Cubarsí, Marta 26 March 2008 (has links)
La utilización de algunas sustancias antimicrobianas y algunos corticosteroides como promotores del crecimiento es una práctica ilegal en la UE. Una nueva aproximación para la detección y el control del suministro de estos compuestos puede ser el análisis del pelo. Esta matriz presenta ciertas ventajas frente a otras matrices de análisis, pero los métodos analíticos así como los principales mecanismos por los cuales estas sustancia se acumulan, no están del todo claros ni bien definidos. En este trabajo se desarrollan protocolos de análisis rápidos y específicos para detectar residuos de sulfametacina (SMZ), enrofloxacino (ENR) y dexametasona (DEX) en pelo, músculo e hígado de animales de producción (vacuno y porcino). Asimismo, se confirma la deposición de estos compuestos en el pelo de animales tratados y se evalúa el pelo como matriz analítica y de control de la administración de estos compuestos en producción animal. / The use of antimicrobial substances and some corticosteroids as growth promoters is an illegal practice in the EU countries. A new approximation to detect and control these practices could be hair analysis. This matrix offers certain advantages if compared to other tissues, but the analytical protocols as well as the mechanisms of drugs incorporation into hair are not well known and defined. The objectives of this work are to develop rapid and specific analytical protocols to detect residues of sulphamethazine (SMZ), enrofloxacin (ENR) and dexamethasone (DEX) in hair, muscle and liver of treated animals (cattle and pigs). The accumulation of these compounds in the hair of treated animals as well as the evaluation of the hair as a tool to control the administration of these compounds is studied and evaluated in this work.
17

Aplicación de sensores de flujo óptico para el desarrollo de nuevos sistemas de medida de bajo coste

Tresánchez Ribes, Marcel 23 December 2011 (has links)
En aquesta memòria es presenten diversos treballs relacionats amb la utilització dels sensor de flux òptic de baix cost pel desenvolupament de nous sistemes de mesura compactes i de molt baix cost. Les aplicacions plantejades permeten aprofitar tot el potencial industrial d’aquest tipus de sensors. Els sensors de flux òptic tenen la peculiaritat d’incorporar dins d’un únic encapsulat un sistema d’adquisició d’imatges i un processador digital preprogramat per a realitzar el còmput de flux òptic (optical flow) de la imatge. D’aquesta manera, aquest tipus de sensors no requereixen cap sistema processador addicional i, en alguns casos, poden funcionar sense cap altre element addicional de control. Actualment, l’èxit dels sensors de flux òptic ha facilitat la seva producció industrial massiva amb costos de fabricació molt baixos el que ha incentivat el desenvolupament de noves aplicacions en camps tan diversos com la robòtica on el cost és un element fonamental en les aplicacions destinades a un mercat de consum. En aquesta memòria es presenta, per una banda, l’anàlisi de l’estat de l’art dels sensors de flux òptic i les seves aplicacions, i per l’altra, el treball de recerca realitzat sobre l’ús d’aquest sensor per a desenvolupar un codificador rotatiu incremental, un codificador absolut, un sistema de detecció de monedes falses de 2 euros, i per a realitzar el seguiment de la pupil•la de l’ull d’una persona amb discapacitat. Els resultats obtinguts a partir de les proves experimentals realitzades amb els diferents sensors de flux òptics utilitzats als dispositius proposats han permès validar les propostes realitzades i la versatilitat del disseny del sensor. / En esta memoria se presentan diversos trabajos de investigación relacionados con la utilización de sensores de flujo óptico de bajo coste para el desarrollo de nuevos sistemas de medida compactos y de muy bajo coste. Las aplicaciones planteadas permiten aprovechar todo el potencial industrial de este tipo de sensores. Los sensores de flujo óptico tienen la particularidad de incorporar dentro de un único encapsulado un sistema de adquisición de imágenes y un procesador digital preprogramado para realizar el cómputo de flujo óptico (optical flow) de la imagen. De esta manera, este tipo de sensores no requieren ningún sistema procesador adicional y, en algunos casos, pueden funcionar sin ningún otro elemento adicional de control. Actualmente, el éxito comercial de los sensores de flujo óptico ha facilitado su producción industrial masiva con costes de fabricación muy bajos lo que ha incentivado el desarrollo de nuevas aplicaciones en campos tan diversos como la robótica donde el coste es un elemento fundamental en las aplicaciones destinadas a un mercado de consumo. En esta memoria se presenta, por un lado, el análisis del estado del arte de los sensores de flujo óptico y sus aplicaciones, y por el otro, el trabajo de investigación realizado sobre la utilización del sensor para el desarrollo de un codificador rotativo incremental, un codificador absoluto, un sistema de detección de monedas falsas de 2 euros y para realizar el seguimiento de la pupila del ojo de una persona con el fin de desarrollar un dispositivo apuntador que pueda ser de utilidad para una persona con discapacidad. Los resultados obtenidos en las pruebas experimentales realizadas con los diferentes sensores de flujo óptico utilizados en los dispositivos propuestos han permitido validar las propuestas realizadas y la versatilidad del diseño del sensor. / This work presents the research performed with optical flow sensors and the proposal of several new compact and low cost applications developed to take full advantage of the industrial potential of these sensors. Optical flow sensors include into the same chip an image acquisition system and a digital signal processor programmed to compute the optical flow of the image acquired. These sensors do not require additional post-processing and can operate without any other additional external control or processing device. Currently, the commercial success of the optical flow sensors has fostered its massive industrial production and has reduced its final cost. This characteristic, combined with the versatility of the design of the sensor, has also fostered the development of a huge range of new applications in different areas, such as robotics, where the cost is a fundamental factor that prone the development and commercialization of new consumer applications. This works presents, in one hand, a review of the state of the art of the research and development related with optical flow sensors and, in the other hand, a set of new applications proposed to take full advantage of the characteristics of the sensor. The new applications proposed are: a relative encoder, an absolute encoder, a counterfeit system for the 2€ case, and an accessibility device that tracks the pupil of the user to control pointer displacement in a computer screen. This device has been designed specifically to help people with mobility impairments in the upper extremities that cannot use the computer mouse. In all cases, the experimental results achieved with the different optical flow sensors used in the new applications proposed have validated the utility and versatility of each proposal and the utility and versatility of the design of this optical sensor.
18

International fraud: A management perspective

Albrecht, Chad Orsen 30 May 2008 (has links)
L'objectiu de la meva tesi és tractar i entendre millor els múltiples aspectes de la corrupció i el frau internacionals des de la perspectiva del management. Amb aquesta finalitat, hi proporciono un compendi d'articles, tots els quals han estat publicats en journals amb revisors, o bé estan en procés de ser-ho. El primer article que presento en la meva tesi fou publicat al European Business Forum, una revista especialitzada patrocinada per la CEMS, que és llegida per més de 40.000 professionals dels negocis d'arreu d'Europa. Alguns dels diaris internacionals més importants, com ara el Times of London Newspaper, també citen aquest article a bastament. S'hi exposa per què i com es cometen els fraus. El segon article que comento a la tesi es troba actualment en fase de "revisió i reenviament" al Journal of Business Ethics. Es tracta d'un journal sobre factors d'impacte, inclòs a la llista dels 40 millors journals de management que publica el Financial Times. Aquest article tracta de com les persones fan servir el poder per reclutar altres persones per tal que participin en el frau d'estats financers. Aquest segon article també es va sotmetre a la revisió d'àrbitres a l'edició 2007 de la European Academy of Management Conference que tingué lloc a París, França. El tercer article que es presenta en la meva tesi fou publicat a The Journal of Digital Forensics, Security, and Law. També s'havia presentat prèviament a la XII Conferència Anual d'AMCIS amb revisors, que tingué lloc a Acapulco, Mèxic. La Conferència d'AMCIS és un dels principals congressos acadèmics que tracten dels camps relacionats amb els sistemes d'informació. Aquest tercer article analitza com els responsables de perpetrar el frau se serveixen dels principis i les estratègies de poder i negociació per enredar les persones per Internet perquè participin en projectes de frau. El quart article que comento fou publicat a l'Information Systems Security Journal. Aquest journal fa 17 anys que el publica Taylor and Francis Publishing -una de les principals editorials de journals acadèmics-, i és la publicació oficial de CISSP i SSCP. L'article analitza les tendències actuals en matèria de frau i la seva detecció. El cinquè article que es presenta fou publicat a la Corporate Finance Review. Aquest article tracta específicament del frau d'estats financers als Estats Units. També explica què pot fer Europa per aprendre dels errors comesos als Estats Units. La Corporate Finance Review és patrocinada per Thomson Education -una editorial líder en l'àmbit educatiu. Actualment, la revista es troba al 12è any de publicació. Finalment, el darrer article que presento a la tesi és un comentari que es va fer sobre el tema del frau entre dos professors americans i jo mateix. Aquest diàleg es va publicar al Journal of Management, Spirituality, and Religion. El comentari tractava el tema de la relació entre organitzacions imbuïdes en la religió i el frau. / El objetivo de mi tesis es tratar de entender mejor los múltiples aspectos de la corrupción y el fraude internacionales desde la perspectiva del management. Para ello, proporciono un compendio de artículos, todos ellos publicados en journals con revisores, o bien que se hallan en proceso de publicación. El primer artículo que presento en mi tesis fue publicado en el European Business Forum, una revista especializada patrocinada por la CEMS, que es leída por más de 40.000 profesionales de los negocios de toda Europa. Algunos de los diarios internacionales más importantes, como el Times of London Newspaper, también citan este artículo ampliamente. En él se expone por qué y cómo se cometen los fraudes. El segundo artículo que comento en mi tesis se halla actualmente en fase de "revisión y reenvío" al Journal of Business Ethics. Se trata de un journal sobre factores de impacto, incluido en la lista de los 40 mejores journals de management que publica el Financial Times. Dicho artículo trata de cómo las personas se sirven del poder para reclutar a otras personas para que participen en el fraude de estados financieros. Este segundo artículo también fue sometido a la revisión de árbitros en la edición 2007 de la European Academy of Management Conference celebrada en París, Francia. El tercer artículo que presento en mi tesis fue publicado en The Journal of Digital Forensics, Security, and Law. Asimismo, previamente se había presentado en la XII Conferencia Anual de AMCIS con revisores, celebrada en Acapulco, México. La Conferencia de AMCIS es uno de los principales congresos académicos que tratan de los campos relacionados con los sistemas de información. Este tercer artículo analiza cómo los responsables de perpetrar el fraude se sirven de los principios y estrategias de poder y negociación para enredar a persones por Internet para que participen en proyectos de fraude. El cuarto artículo que comento fue publicado en el Information Systems Security Journal. Este journal es publicado desde hace 17 años por Taylor and Francis Publishing -una de las principales editoriales de journals académicos-, y es la publicación oficial de CISSP y SSCP. En dicho artículo se analizan las tendencias actuales en materia de fraude y su detección. El quinto artículo que se presenta fue publicado en la Corporate Finance Review. Este artículo trata específicamente del fraude de estados financieros en Estados Unidos. També explica qué puede hacer Europa para aprender de los errores cometidos en Estados Unidos. La Corporate Finance Review cuenta con el patrocinio de Thomson Education -una editorial líder en el ámbito educativo. En la actualidad, la revista se halla en el 12.º año de publicación. Finalmente, el último artículo que presento en mi tesis es un comentario sobre el tema del fraude, realizado entre dos profesores americanos y yo mismo. Dicho diálogo fue publicado en el Journal of Management, Spirituality, and Religion. El comentario trataba del tema de la relación entre organizaciones imbuidas en la religión y el fraude. / The purpose of my dissertation is to address and better understand the many aspects of International Fraud and Corruption from a Management Perspective. In my dissertation, I provide a compendium of publications. Each publication was published, or is in the process of being published, in a peer-review journal. The first article that is presented in my dissertation was published in the European Business Forum, a CEMS sponsored journal that is read by more than 40,000 business professionals throughout Europe. Several major international newspapers, including the prestigious Times of London Newspaper, also quoted this article extensively. The article addresses why and how fraud are committed. The second article that is presented in my dissertation is currently under "revise and resubmit" status at the Journal of Business Ethics. This journal is an impact factor journal and is included on the Financial Times list of top 40 management journals. The article addresses how individuals use power to recruit other people to participate in financial statement fraud. This second article was also presented at the peer review 2007 European Academy of Management Conference in Paris, France. The third article that is presented in my dissertation was published in The Journal of Digital Forensics, Security, and Law. This article was also previously presented at the 12th annual peer-review AMCIS conference in Acapulco, Mexico. The AMCIS conference is one of the leading academic conferences within the information systems fields. This third article addresses how perpetrators use the principles and strategies of power and negotiation to con individuals via the Internet to participate in fraud schemes. The fourth article presented in my dissertation was published in Information Systems Security Journal. This journal is currently in its 17th year of publication and is published by Taylor and Francis Publishing - one of the leading publishers in academic journals. This journal is also the official publication of the CISSP and SSCP. The article deals with current trends in fraud and its detection. The fifth article that is presented in my dissertation was published in the journal Corporate Finance Review. This article specifically deals with financial statement fraud in the United States. The article further explains what Europe can do to learn from the mistakes of the United States. Thomson Education - a leader in educational publishing, is the sponsor of Corporate Finance Review. The journal is currently in its 12th year of publication. Finally, the last article presented in my dissertation is a commentary that took place on the subject of fraud between two American professors and myself. The dialogue was published in the Journal of Management, Spirituality, and Religion. The topic of the commentary was on the relationship between organizations embedded in religion and fraud.
19

Desarrollo de un sistema integral para monitorización in situ de metales pesados

Díaz Rengifo, Juan Arturo 27 March 2001 (has links)
El presente trabajo de investigación titulado "Desarrollo de un Sistema Integrado para Monitorización "in situ" de metales pesados", trata de la puesta en marcha de un nuevo sistema de medida potenciométrico portátil para la determinación cuantitativa de metales pesados tóxicos al medio ambiente para medidas en el campo.Comprende tres áreas disciplinarias: En la primera área, la electroquímica, se desarrollan sensores químicos que a su vez se dividen en tres etapas: En la primera etapa, se estudia la fabricación de electrodos convencionales de cabezal reemplazable selectivos a los cationes de cobre(II), cadmio(II) y plomo(II). En la segunda etapa, el estudio de nuevos electrodos selectivos a los mismos cationes del estudio anterior en configuración plana basado en tecnología "thick film", adaptada a nuestras necesidades de fabricación mediante la técnica de moldeo ("casting"). Por último, en la tercera etapa, se estudia la fabricación de electrodos de referencia de configuración plana con la misma tecnología.La segunda área es la informática, en la que se desarrolla un paquete de herramientas basado en "software" de LabVIEW versión 5.1, con el nombre de Instrumentación Virtual para el Control Potenciométrico de Sensores Químicos, (en inglés "VIPCCHES"). Este paquete está capacitado para el tratamiento de la información que contienen las señales analíticas procdentes de los sensores. Tiene tres funciones importantes. La primera función es la calibración de los electrodos por dos métodos: calibración externa continua y calibración externa discontinua, ambos en dos modos de operación, modo individual y modo "array" de electrodos.Una segunda función del paquete VIPCCHES es la adquisición de datos en modo continuo de un electrodo o un array de electrodos, permitiendo al usuario programar las medidas necesarias en tiempos de adquisición variables. La tercera función operativa del programa, es la realización de análisis de muestras de metales para un electrodo o un "array" de electrodos. El valor de la señal adquirida es promediado y éste es confrontado con una curva de calibración del electrodo plano de manera automática, presentando los resultados de manera gráfica y numérica. Finalmente, los resultados pueden ser tratados mediante programas estándar tipo Excel.En el área de la electrónica, se ha construido un dispositivo para procesar las señales que proceden de los electrodos planos de nombre "SPPAE" que permite la adecuación de las señales a la Tarjeta de Adquisición de Datos (TAD) en el ordenador. Está diseñado con filosofía de expansión, por medio de módulos de amplificación y filtrado (anti-aliasing) que se insertan en un Bus de alimentación.La integración de estos tres sistemas (electrodos de configuración plana, el SPPAE y el VIPCCHES) forman parte del Sistema Integrado para Monitorización Ambiental que conocemos como SIMA estando dicho sistema capacitado para realizar análisis "in situ" de metales pesados. / In this work, a Integrated System for monitoring in situ of heavy metals was developed. Include three disciplinary areas, the electronic, the information technology and the electrochemical. The first step was development now chemical sensors selective to cationes using thick film technology. The second task was the development of one virtual instrument (VI), which is the essential part of the system, using the graphical programming language LabVIEW which is capable of performing measurements functions, including data acquisition, display, analysis in the time and frequency domains, data archiving and read to file. Finally its build a signals processor, for the now plane and miniaturised electrodes. The installations of these elements in a portable computer consist in the Integrated System.Keywords: thick film, chemical sensors, integrated systems, virtual instrumentation, signals processor, in situ measurements, monitoring, heavy metals.
20

Contribució a l'estudi de les uninormes en el marc de les equacions funcionals. Aplicacions a la morfologia matemàtica

Ruiz Aguilera, Daniel 04 June 2007 (has links)
Les uninormes són uns operadors d'agregació que, per la seva definició, es poden considerar com a conjuncions o disjuncions, i que han estat aplicades a camps molt diversos. En aquest treball s'estudien algunes equacions funcionals que tenen com a incògnites les uninormes, o operadors definits a partir d'elles. Una d'elles és la distributivitat, que és resolta per les classes d'uninormes conegudes, solucionant, en particular, un problema obert en la teoria de l'anàlisi no-estàndard. També s'estudien les implicacions residuals i fortes definides a partir d'uninormes, trobant solució a la distributivitat d'aquestes implicacions sobre uninormes. Com a aplicació d'aquests estudis, es revisa i s'amplia la morfologia matemàtica borrosa basada en uninormes, que proporciona un marc inicial favorable per a un nou enfocament en l'anàlisi d'imatges, que haurà de ser estudiat en més profunditat. / Las uninormas son unos operadores de agregación que, por su definición se pueden considerar como conjunciones o disjunciones y que han sido aplicados a campos muy diversos. En este trabajo se estudian algunas ecuaciones funcionales que tienen como incógnitas las uninormas, o operadores definidos a partir de ellas.Una de ellas es la distributividad, que se resuelve para las classes de uninormas conocidas, solucionando, en particular, un problema abierto en la teoría del análisis no estándar. También se estudian las implicaciones residuales y fuertes definidas a partir de uninormas, encontrando solución a la distributividad de estas implicaciones sobre uninormas. Como aplicación de estos estudios, se revisa y amplía la morfología matemática borrosa basada en uninormas, que proporciona un marco inicial favorable para un nuevo enfoque en el análisis de imágenes, que tendrá que ser estudiado en más profundidad. / Uninorms are aggregation operators that, due to its definition, can be considered as conjunctions or disjunctions, and they have been applied to very different fields. In this work, some functional equations are studied, involving uninorms, or operators defined from them as unknowns. One of them is the distributivity equation, that is solved for all the known classes of uninorms, finding solution, in particular, to one open problem in the non-standard analysis theory. Residual implications, as well as strong ones defined from uninorms are studied, obtaining solution to the distributivity equation of this implications over uninorms. As an application of all these studies, the fuzzy mathematical morphology based on uninorms is revised and deeply studied, getting a new framework in image processing, that it will have to be studied in more detail.

Page generated in 0.0503 seconds