• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 25
  • 12
  • 9
  • Tagged with
  • 110
  • 110
  • 98
  • 94
  • 94
  • 94
  • 94
  • 94
  • 33
  • 14
  • 11
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Nuevo modelo de recogida y reciclaje de equipos eléctricos y electrónicos (juguetes): experimentación y evaluación de sostenibilidad del modelo

Solé Gustems, Miquel 29 March 2012 (has links)
La recogida actual de residuos de aparatos eléctricos y electrónicos (RAEE) es muy reducida, sobre todo para la categoría de los pequeños aparatos eléctricos y electrónicos. Con el objetivo de aumentar esta recogida, se propone un modelo alternativo que permite recoger y reciclar juguetes con componentes eléctricos y electrónicos. El sistema actual consiste en llevarlos a los puntos limpios y de allí al reciclaje, aunque actualmente la mayoría de pequeños RAEE son depositados en el contenedor junto con la fracción de rechazo de los residuos sólidos urbanos. Este nuevo modelo separa los juguetes reutilizables y los incorpora nuevamente al mercado, y recicla los materiales de los que se consideran residuos. De todos los residuos de aparatos eléctricos y electrónicos se han elegido los juguetes con componentes eléctricos y electrónicos porque forman parte de la actividad de los niños, hecho que puede ayudar a sensibilizar a los propios niños y a sus familias respecto a la importancia de una buena gestión de este tipo de residuos. El modelo propone que, por mediación de los profesores, en las escuelas se pueda realizar una acción de sensibilización que facilite la separación de estos residuos a través de campañas de comunicación, y la disposición de los mismos en un contenedor específico situado en la propia escuela. También es necesario el apoyo de la administración pública para que el modelo funcione. Así, en esta tesis doctoral se ha realizado una experiencia piloto de este modelo durante dos años en un número reducido de municipios, y se ha evaluado la sostenibilidad del mismo. Se ha realizado una evaluación ambiental calculando los impactos ambientales que el modelo propuesto ahorraría respecto del sistema actual de recogida. Asimismo, se ha realizado una evaluación económica del sistema aplicando la metodología del coste-beneficio e incluyendo los beneficios indirectos asociados al ahorro de impacto ambiental obtenido. Y, por último, se han realizado los primeros pasos para una evaluación social del modelo, llegando a proponer una serie de indicadores para dicha evaluación. A partir de los resultados de las pruebas piloto se ha realizado una extrapolación del modelo tanto geográfica como temporal. Así, se ha evaluado ambiental y económicamente qué supondría extender el modelo propuesto a un ámbito geográfico mayor (Catalunya y España) y ampliar a 10 años la recogida de juguetes / The current rate of waste electrical and electronic equipment (WEEE) collection is very low, especially within the category of small electrical and electronic appliances. In order to increase the collection rate, we propose an alternative model that permits collection and recycling of electrical and electronic toys. Presently, nearly all small appliances go to recycling centers, since most of them are disposed in the bin along with a non-recyclable portion of local solid waste. The proposed model counts on the separation of electrical and electronic waste toys from reusable ones. That waste would go to recycling while the rest goes to the second hand market. Out of all discarded electrical and electronic appliances, we chose toys because they are a critical part of children¿s activity and, therefore, they can serve as a catalyst to raise the consciousness of their families about the importance of good management of such waste. The new model proposes that, through teachers, schools can sharpen the awareness of their students¿ families for the need to separate the recyclable and non-reusable portions of such waste. We propose to accomplish this by means of communication campaigns and the placement of a specialized container in the school. Support of the school¿s administration will be needed to implement the model. For two years we have run pilot model in a small number of municipalities, and we have assessed their sustainability. Also, we have calculated the environmental impact that the proposed model would have in terms of savings versus the current collection system. In tandem, we have included an economic assessment by applying a cost-benefit methodology against our proposed model, including indirect benefits associated with the reduced environmental impact. Finally, we have been the first steps towards a social evaluation model, and to this end we propose a set of indicators for such evaluation. The results of the pilot model have been extrapolated geographically and through time. We have calculated the results if this proposed model were to be implemented in a larger geographic area (Catalunya and Spain) and the toys collection period is extended to 10 years.
62

Passive acoustic method for aircraft localization

Martín Román, Sara-Regina 15 July 2013 (has links)
The present thesis investigates a passive acoustic method to locate maneuvering aircraft. The method is based on the acoustical Doppler effect, as a particular effect of the signals received by a mesh of spatially distributed microphones. A one-dimensional version of the ambiguity function allows for the calculation of the frequency stretch factor that occurs between the sound signals received by a pair of microphones. The mathematical expression for this frequency stretch is a function of the aircraft position and velocity, both of them being estimated by a genetic algorithm. The method requires only a minimum of seven microphones and the prior knowledge of the aircraft position and velocity at a given time. The advantages of the method are that it is suitable for all kind of aircraft, not only propeller-driven, and is not restricted to low heights above the ground. Its applicability could be, for instance, to supplement aircraft noise monitoring systems or to supervise small airports activities. This doctoral research includes the theoretical background of the method as well as the detailed description of its implementation. To assess the performance of the method, results from computer simulations are discussed. First of all, noise propagation is considered in a lossless medium, thus only geometrical spreading influences the sound emitted by the source traveling to the receivers. The accuracy of each step of the method has been evaluated and the results obtained reveal acceptable performance. Due to the large distances between microphones and the aircraft in flight, the atmospheric attenuation plays a major roll. Therefore, computer simulations have also been carried out under the assumption of an homogeneous but non lossless medium to evaluate the influence of the atmospheric absorption on the aircraft location. Under these conditions, the performance of the method with respect to the microphone distribution is discussed. Moreover, the location method has also been tested for a possible inaccuracy on the microphones synchronization. Finally, an outdoor experimental validation of the acoustic method has been carried out with a radio control airplane. The description of the experimental test is detailed in the present work as well as the results obtained. / La tesi desenvolupa, implementa i valida un mètode acústic per a la localització d’aeronaus. El mètode es basa en l’efecte Doppler que es percep en els registres de diferents micròfons distribuïts al voltant d’un aeroport. La versió u-dimensional de la funció d’ambigüitat permet el còmput del factor de compressió o expansió que sorgeix entre els registres freqüencials d’ un parell de micròfons. Aquest factor Freqüencial es pot expressar matemàticament en funció de la posició i velocitat de l’aeronau, que s’estimen en aquesta tesi a partir d’algoritmes genètics. El mètode només requereix de set micròfons i el coneixement previ de la posició de l’avió en un moment donat. Els principals avantatges del mètode són que és un mètode vàlid per qualsevol tipus d’aeronau, no només per avions d’hèlix o helicòpters, i que no restringeix a vols de baixa alçada. La seva aplicació podria ser, per exemple, complementar un sistema de monitorització de soroll aeri o bé supervisar l’activitat dels aeroports petits que no disposen de sistemes de radar. Aquesta investigació inclou el desenvolupament teòric del mètode així com la descripció detallada de la seva implementació. Per tal d’avaluar l’efectivitat del mètode, es presenten i analitzen resultats obtinguts a partir de diverses simulacions. Com a primer cas, es considera que el so es propaga en un medi conservatiu, és a dir, el so que es propaga des de la font fins als receptors només es veu afectat per l’atenuació geomètrica. Sota aquest model senzill de propagació, s’ha analitzat l’accuracy de cada un dels passos del mètode i els resultats obtinguts posen de manifest una bona ... del mètode. Tenint en compte que les distàncies entre els micròfons i l’avió en vol són llargues, l’atenuació atmosfèrica influeix també en la propagació del so emès per l’avió. Per tant, el segon cas de simulacions que s’han dut a terme considera un medi de propagació homogeni i no conservatiu amb l’objectiu d’avaluar la influència de l’atenuació atmosfèrica en la localització acústica de l’aeronau. Sota aquestes condicions, també s’ha analitzat l’eficàcia del mètode en funció de la distribució de micròfons. A més, el mètode de localització s’ha posat a prova sota possibles errors en la sincronització dels set micròfons. Finalment, s’ha dut a terme una validació experimental del mètode amb una avioneta de radio control al Club Aeronàutic Egara. La descripció d’aquest test experimental es detalla en la tesis així com els resultats obtinguts que demostren la validesa satisfactòria del mètode.
63

Optimization of environmentally friendly solar assisted absorption cooling systems

Gebreslassie, Berhane Hagos 14 September 2010 (has links)
La optimización de los sistemas de conversión de energía gana cada vez más importancia debido a su impacto ambiental y los limitados recursos de combustibles fósiles. Entre estos sistemas los de refrigeración tienen una contribución creciente en el consumo total de energía y en las emisiones de CO2. Los sistemas de absorción operados con energía solar son una de las alternativas más sostenibles frente a los sistemas de refrigeración convencionales. Por lo tanto, este trabajo se centra en su mejora siguiendo los métodos de optimización termo-económica y de programación matemática. El análisis exergético y la optimización termo-económica basada en el método estructural se han realizado para distintas configuraciones de ciclos de refrigeración por absorción con las mezclas de trabajo agua-LiBr y amoniaco-agua. En la sección de programación matemática se incluye la optimización multi-objetivo (frontera de Pareto), la optimización bajo incertidumbre de los precios de la energía, el uso de varios indicadores de impacto ambiental y el efecto del impuesto sobre las emisiones de CO2. Los resultados demuestran que se pueden obtener reducciones importantes del impacto ambiental frente a los sistemas convencionales. Los sistemas de refrigeración solar no sólo son atractivos para reducir el impacto ambiental, sino también pueden ser económicamente competitivos. Su implantación dependerá, en gran medida, del impuesto sobre las emisiones de CO2 y del coste de la energía. / Optimizations of energy conversion systems become more important because of their environmental impact and the limitations of the fossil fuel resources. Among these systems cooling and refrigeration machines have an increasing share in the total energy consumption and contribution to CO2 emissions. Solar assisted absorption cooling systems are sustainable alternatives compared to the conventional cooling systems. Hence, this work is focused on improving the sustainability of cooling systems following the thermoeconomic optimization and mathematical programming approaches. In the first approach the energy, exergy and structural analysis are performed for different configurations of water/LiBr and ammonia/water absorption cooling cycles. In the second approach multi-objective optimization (Pareto frontier), optimization under uncertainty of energy prices, different environmental impact indicators, and the effect of CO2 emissions tax to reduce the global warming are discussed. The results of the multi-objective optimization show that a significant environmental impact reduction can be obtained. Results indicate that these systems are attractive not only to reduce the environmental impact but also in incurring the economic benefits. However, its practical impact largely depends on the CO2 emissions tax and the increase in the energy price.
64

Propuesta de nuevos modelos constitutivos para caracterización viscoelástica de materiales termoplásticos

Serra Àguila, Albert 27 November 2013 (has links)
El present treball té dos objectius fonamentals: 1) Obtenir models matemàtics per a definir el comportament d’alguns materials termoplàstics específics a partir de les dades de l’anàlisi dinamo-mecànic (DMA) i poder predir els mòduls de tracció i de creep sense utilitzar la màquina universal d’assajos (MUE). 2) Obtenir codis de simulació on l’usuari pugui predir aquests mateixos mòduls de tracció i de creep introduint els paràmetres d’entrada necessaris. Aquests paràmetres són la velocitat de deformació, el temps i la temperatura. Així, el concepte bàsic d’aquest projecte és el següent: a partir de les dades de DMA, i amb l’ús de sofisticats models matemàtics, es pot predir la resposta del material en assajos de tracció o de creep (o de relaxació de tensions) sense realitzar més experiències. Per a assajos de tracció la resposta es troba en funció de la velocitat de deformació i de la temperatura del material. En assajos de creep (o de relaxació de tensions) la resposta es troba en funció del temps i de la temperatura del material. El mateix pot realitzar-se amb programes de simulació introduint els paràmetres necessaris. Una vegada feta la caracterització a partir dels valors experimentats en DMA, es poden predir altres resultats dintre del rang de treball. Això s’aconsegueix simulant altres experiments mitjançant un simulador computacional, estalviant temps i diners. En aquesta tesi, els bucles de tracció i de creep han estat realitzats per a tres materials. Així i tot, el procediment mostrat en aquest treball pot ser aplicat a diferents matrius, amb o sense fibres. Aquesta tesi presenta diverses contribucions: 1) Creació d’un nou model matemàtic per al bucle de tracció en funció de la velocitat de deformació i de la temperatura. 2) Subrutina per a poder alimentar un codi en ANSYS® permetent introduir diferents velocitats de deformació. 3) Creació de dos nous models matemàtics per al bucle de creep mitjançant la introducció de coeficients alfa en el domini de la freqüència. 4) Modificacions dels coeficients dels models matemàtics per al bucle de creep per a passar del domini de la freqüència al domini del temps. 5) Desenvolupament d’equacions per a determinar els paràmetres de les series de Prony (models generalitzats de Kelvin-Voigt i de Maxwell) amb n=1 o n=2. 6) Desenvolupament d’equacions per a determinar els coeficients del model generalitzat de Kelvin-Voigt a partir dels coeficients del model generalitzat de Maxwell o viceversa, amb n=1 o n=2, per a poder canviar de model. 7) Descripció d’un procediment per a desenvolupar els models matemàtics que poden ser aplicats a altres materials termoplàstics. En resum, amb aquestes contribucions, es proposen nous models d’equacions per a estudiar aquestes propietats mecàniques en funció de la velocitat de deformació (en tests de tracció), del temps (en tests de creep), i de la temperatura (en ambdós tests). / El presente trabajo tiene dos objetivos fundamentales: 1) Obtener modelos matemáticos para definir el comportamiento de algunos materiales termoplásticos específicos a partir de los datos del análisis dinamomecánico (DMA) y poder predecir los módulos de tracción y de creep sin usar la máquina universal de ensayos (MUE). 2) Obtener códigos de simulación donde el usuario pueda predecir estos mismos módulos de tracción y de creep introduciendo los parámetros de entrada necesarios. Estos parámetros son la velocidad de deformación, el tiempo y la temperatura. Así, el concepto básico de este proyecto es el siguiente: a partir de los datos de DMA, y con el uso de sofisticados modelos matemáticos, se puede predecir la respuesta del material en ensayos de tracción o de creep (o de relajación de tensiones) sin realizar más experiencias. Para ensayos de tracción la respuesta se encuentra en función de la velocidad de deformación y de la temperatura del material. Para ensayos de creep (o de relajación de tensiones) la respuesta se encuentra en función del tiempo y de la temperatura del material. Lo mismo puede realizarse con programas de simulación introduciendo los parámetros necesarios. Una vez realizada la caracterización a partir de los valores experimentados en DMA, se pueden predecir otros resultados cualesquiera dentro del rango de trabajo. Esto se consigue simulando otras experiencias mediante un simulador computacional, ahorrando tiempo y dinero. En esta tesis, los bucles de tracción y de creep han sido realizados para tres materiales. Sin embargo, el procedimiento mostrado en este trabajo puede ser aplicado a distintas matrices, con o sin fibras. Esta tesis presenta distintas contribuciones: 1) Creación de un nuevo modelo matemático para el bucle de tracción en función de la velocidad de deformación y de la temperatura. 2) Subrutina para poder alimentar un código en ANSYS® permitiendo introducir diferentes velocidades de deformación. 3) Creación de dos nuevos modelos matemáticos para el bucle de creep mediante la introducción de coeficientes alfa en el dominio de la frecuencia. 4) Modificaciones de los coeficientes de los modelos matemáticos para el bucle de creep para pasar del dominio de la frecuencia al dominio del tiempo. 5) Desarrollo de ecuaciones para determinar los parámetros de las series de Prony (modelos generalizados de Kelvin-Voigt y de Maxwell) con n=1 o n=2. 6) Desarrollo de ecuaciones para determinar los coeficientes del modelo generalizado de Kelvin-Voigt a partir de los coeficientes del modelo generalizado de Maxwell o viceversa, con n=1 o n=2, para poder cambiar de modelo. 7) Descripción de un procedimiento para desarrollar los modelos matemáticos que pueden ser aplicados a otros materiales termoplásticos. En resumen, con estas contribuciones, se proponen nuevos modelos de ecuaciones para estudiar estas propiedades mecánicas en función de la velocidad de deformación (en tests de tracción), del tiempo (en tests de creep), y de la temperatura (en ambos tests). / The present work has two fundamental objectives: 1) Obtaining of mathematical models to define the behavior of some specific thermoplastic materials from dynamic mechanical analysis (DMA) data and predict tensile and creep moduli without using the universal testing machine (MUE). 2) Obtaining of simulation codes where the user can predict these same tensile and creep moduli introducing the necessary input parameters. These parameters are strain rate, time and temperature. So, the base concept of this project is the following: from DMA data, and with the use of sophisticated mathematical models, the response of the material in tensile or creep (or stress relaxation) assays can be predicted without any further experimentation. For tensile assays, the response is given as a function of strain rate and temperature of the material. For creep (or stress relaxation) assays, the response is given as a function of time and temperature of the material. The same can be done with simulation programs introducing the necessary parameters. Once this characterization is done for the values experimented in DMA, one can predict any other results within the working range. It allows simulating other experiments through a computational simulator, to save time and money. In this thesis, tensile and creep loops are performed with three materials. However, the procedure shown in this work can be applied to different matrices, with or without fibers. There are several contributions of this thesis: 1) Creation of a new mathematical model for tensile loop as a function of strain rate and temperature. 2) Subroutine to feed an ANSYS® code with the introduction of different strain rates. 3) Creation of two new mathematical models for creep loop with the introduction of alpha coefficients in the frequency domain. 4) Modifications of the coefficients of the mathematical models for creep loop to pass from frequency domain to time domain. 5) Development of equations to determine the parameters of the Prony series (generalized Kelvin-Voigt and generalized Maxwell models) with n=1 or n=2. 6) Development of equations to determine the coefficients of the generalized Kelvin-Voigt model from the coefficients of the generalized Maxwell model or the other way round, with n=1 or n=2, to change the model. 7) Description of the procedure to develop the mathematical models that can be applied to other thermoplastic materials. In conclusion, with these contributions, new models of equations to study these mechanical properties are proposed as a function of strain rate (in tensile tests), time (in creep tests) and temperature (in both tests).
65

Grapheme-to-phoneme conversion in the era of globalization

Polyàkova, Tatyana V. 13 March 2015 (has links)
This thesis focuses on the phonetic transcription in the framework of text-to-speech conversion, especially on improving adaptability, reliability and multilingual support in the phonetic module. The language is constantly evolving making the adaptability one of major concerns in phonetic transcription. The phonetic transcription has been addressed from a data- based approach. On one hand, several classifiers such as Decision Trees, Finite State Transducers, Hidden Markov Models were studied and applied to the grapheme-to-phoneme conversion task. In addition, we analyzed a method of generation of pronunciation by analogy, considering different strategies. Further improvements were obtained by means of application of the transformation-based error-driven learning algorithm. The most significant improvements were obtained for classifiers with higher error rates. The experimental results show that the adaptability of phonetic module was improved, having obtained word error rates as low as 12% (for English). Next, steps were taken towards increasing reliability of the output of the phonetic module. Although, the G2P results were quite good, in order to achieve a higher level of reliability we propose using dictionary fusion. The ways the pronunciations are represented in different lexica depend on many factors such as: expert¿s opinion, local accent specifications, phonetic alphabet chosen, assimilation level (for proper names), etc. There are often discrepancies between pronunciations of the same word found in different lexica. The fusion system is a system that learns phoneme-to-phoneme transformations and converts pronunciations from the source lexicon into pronunciations from the target lexicon. Another important part of this thesis consisted in acing the challenge of multilingualism, a phenomenon that is becoming a usual part of our daily lives. Our goal was to obtain such pronunciations for foreign inclusions that would not be totally unfamiliar either to a native or proficient speakers of the language to be adapted, or to speakers of this language with average to low proficiency. Nativization by analogy was applied to both orthographic and phonetic forms of the word. The results obtained show that phonetic analogy gives better performance than analogy in the orthographic domain for both proper names and common nouns. Both objective and perceptual results obtained show the validity of this proposal. / Fa tan sols uns deu anys les aplicacions de sistemes TTS eren molt més limitades, encara que un passat tan recent sembla més llunyà a causa dels canvis produïts en les nostres vides per la invasió massiva de les tecnologies intel·ligents. Els processos d’automatització de serveis també han assolit nous nivells. Què és el que defineix un bon sistema TTS avui dia? El mercat exigeix que aquest sigui molt adaptable a qualsevol tipus d’àmbit. També és imprescindible un alt nivell de fiabilitat ja que un simple error d’un TTS pot causar problemes seriosos en el nostre dia a dia. La nostra agenda és cada vegada més exigent i hem de fer front a més volums d’informació en menys temps. Deleguem les nostres tasques quotidianes als nostres dispositius intel·ligents que ens ajuden a llegir llibres, triar productes, trobar un lloc al mapa, etc. A més viatgem més i més cada dia. Aprenem a parlar noves llengües, les barregem, en un món més i més globalitzat. Un sistema TTS que no és capaç de fer front a les entrades multilingües no serà capaç de sostenir la competència. Els sistemes TTS moderns han de ser multilingües. La transcripció fonètica és el primer mòdul del TTS per la qual cosa el seu correcte funcionament és fonamental. Aquesta tesi se centra en la millora de l’adaptabilitat, fiabilitat i suport multilingüe del mòdul fonètic del nostre sistema TTS. El mòdul de transcripció fonètica del TTS va passar de ser basat en regles o diccionaris a ser automàtic, derivat de dades. La llengua està en constant evolució, igual que tots els organismes vius. És per això que l’adaptabilitat és un dels principals problemes de la transcripció fonètica. Per millorar-la es necessita un mètode basat en dades que funcioni bé per a derivar la pronunciació de paraules no trobades al lèxic del sistema. En aquesta tesi es comparen diferents mètodes G2P impulsats per dades que utilitzen les mateixes dades d’entrenament i test i es proposen millores. S’han aplicat diversos classificadors basats en dades, com ara arbres de decisió, traductors d’estats finits i models de Markov, a la tasca de transcripció fonètica, analitzant i comparant els resultats. L’algorisme TBL, basat en aprenentatge dels errors proporciona millores adicionals als classificadors esmentats. Aquest mètode permet capturar patrons d’errors i corregir-los. Les millores més significatives s’obtenen per classificadors amb taxes d’errors més gran. Els millors resultats s’obtenen mitjançant l’aplicació del millor classificador FST amb posterior correcció dels errors pel TBL. Els resultats obtingut per altres classificadors i corregits pel TBL mostren millores entre 2-4 punts percentuals en la taxa d’error de les paraules. La millora que s’obté mitjançant l’aplicació del TBL per als resultats del classificador més simple basat només en correspondències lletra-fonema presents en el corpus d’entrenament, ML, és enorme (77-83 punts percentuals depenent del lèxic), el que demostra l’eficàcia del TBL per si sol. L’èxit de l’algorisme TBL demostra l’eficàcia de l’aprenentatge basat en els errors, que és bastant similar a l’aprenentatge de llengües pels humans. Una altra tècnica que els éssers humans utilitzen de forma regular en l’aprenentatge d’idiomes és la pronunciació per analogia. Això és encara més cert per a llengües amb ortografia profunda, on la correspondència entre la forma escrita i parlada és bastant ambigua. Per millorar encara més la capacitat d’adaptació del nostre mòdul de pronunciació fonètica, es va desenvolupar un algorisme de pronunciació per analogia. Aquest algorisme troba arcs de lletres als quals correspon la mateixa pronunciació i calcula la seva freqüència. La pronunciació d’una nova paraula es construeix amb els arcs més llargs que constitueixen el camí més curt a través del graf de totes les pronunciacions disponibles per a aquesta paraula. Es basa en paràmetres com ara la freqüència d’arc, posició en la paraula, etc. Les pronunciacions que contenen el menor nombre d’arcs (si hi ha més d’una) es donen un rang i les estratègies de puntuació escullen la millor opció. En aquest treball s’han proposat noves estratègies de puntuació i s’han obtingut resultats prometedors. Una de les noves estratègies propostes clarament supera a les altres. Les noves estratègies propostes també apareixen a la llista de les millors combinacions d’estratègies. Els millors resultats per al PbA són entre 63 i 88 % paraules correctes segons el lèxic. S’han avaluat els G2P no solament per a l’anglès, si no també per altres idiomes europeus. També s’ha considerat el cas de la parla contínua. Per L’anglès, La adaptació de la pronunciació a la parla contínua considera les formes febles. Els resultats generals mostren que la capacitat d’adaptació del mòdul fonètic ha estat millorada. També s’ha actuat en línies que permeten augmentar la fiabilitat del mòdul fonètic. Tot i que els resultats experimentals per al G2P són bastant bons, encara hi ha errors que poden impedir que la intel·ligibilitat de certes paraules i, per tant, reduir la qualitat de la parla en general. Es proposa aconseguir un major nivell de fiabilitat a través de fusió de diccionaris. Les pronunciació de les paraules presents en els diccionaris depèn de molts factors, per exemple: opinió experta, especificacions de l’accent local, alfabet fonètic triat, nivell d’assimilació (per a noms propis), etc. Sovint hi ha discrepàncies entre la pronunciació de la mateixa paraula en diferents lèxics. En general, aquestes discrepàncies, encara que de vegades significatives, no obstaculitzen greument la pronunciació global de la paraula ja que totes les pronunciacions lèxic han estat prèviament validades per un lingüista expert. Aquestes discrepàncies normalment es troben a la pronunciació de vocals i diftongs. La substitució de vocals per similars no es considera un error greu perquè no afecta la intel·ligibilitat i per tant la qualitat de veu. El sistema de fusió proposat es basa en el mètode P2P, que transforma les pronunciacions del lèxic d’origen a les pronunciacions del lèxic de destí (el sistema està capacitat per aprendre aquestes transformacions). Per entrenar el classificador, es seleccionen les entrades comunes entre el lèxic font i destí. Els experiments es duen a terme tant per paraules comuns com per a noms propis. Els experiment realitzat s’han basat en les tècniques DT i FST. Els resultats mostren que la qualitat de la parla en general es pot millorar significativament donadas les baixes taxes d’error de G2P i una àmplia cobertura del diccionari del sistema. El sistema TTS final és més adaptable i fiable, més preparat per afrontar el repte del multilingüisme, el fenomen que ja forma part habitual de les nostres vides quotidianes. Aquesta tesi considera contextos que contenen la barreja de llengües, on la llengua pot canviar de forma inesperada. Aquestes situacions abunden en les xarxes socials, fòrums, etc. Es proposa un esquema de G2P multilingüe incloent la nativització. El primer component d’un TTS multilingüe és el mòdul d’identificació d’idioma. S’ha desenvolupat un identificador d’idioma basat en n -gramas (de lletres) obtenint bons resultats. Els contextos amb llengües mixtes han de ser tractats amb especial delicadesa. En general, cada frase o paràgraf tenen una llengua principal i les paraules estrangeres presents s’hi consideren inclusions. A l’hora de decidir com pronunciar frases en diverses llengües es poden considerar dos escenaris: 1) aplicar, per cada llengua el diferents G2P classificadors propis de la llengua (es produiria canvis fonètics bruscs que sonarien molt poc natural); 2) aplicar el classificador G2P per a l’idioma principal de la frase suposant que aquesta pronunciació seria més acceptable que la que conté fonemes estrangers. I si cap de les propostes anteriors es acceptada? Per països com Espanya, on el domini de llengües estrangeres per la població general és bastant limitat, proposem nativitzar la pronunciació de paraules estrangeres en frases espanyoles. Quins criteris s’han d’utilitzar tenint en compte les significatives diferències en l’inventari de fonemes? El nostre objectiu és obtenir pronunciacions que no són del tot desconegudes i que siguin acceptades tant per parlants nadius o amb alt domini de l’idioma estranger com per parlants d’aquesta llengua amb nivell mitjà o baix. En aquest treball la nativització es porta a terme per a les inclusions angleses i catalanes en frases en castellà. Quan hi ha diferències significatives en els inventaris de fonemes entre les llengües nativització presenta reptes addicionals. Per tal de validar ràpidament la idea de nativització es van crear taules de mapeig de fonemes estrangers als nativizats, també es va dur a terme una avaluació perceptual. La nativització basada en taules mostra un major nivell d’acceptació per part del públic que la síntesi sense cap nativiztació. Per tal de millorar encara més els resultats de nativització de forma eficaç es necessita un mètode basat en dades. Com a gran part de pronunciacions estrangeres s’aprenen per analogia, l’aplicació del PbA a aquesta tasca és idoni, sobretot perquè ja ha demostrat excel·lents resultats per a la tasca de transcripció fonètica. Per a això s’explora l’analogia tant en el domini ortogràfic com fonètic. Tots els mètodes basats en dades requereixen un corpus d’entrenament i PbA, per descomptat, no és una excepció. Ja que cap corpus de nativització adequat per a la tasca estava disponible es va prendre la decisió de crear un corpus d’entrenament i test per entrenar i validar el nostre classificador per inclusions angleses en castellà, i un altre joc per a les catalanes. Tots els dos corpus d’entrenament contenen 1.000 paraules i són ortogràficament equilibrats. S’aplica la nativització per analogia basada en la forma ortogràfica de la paraula G2Pnat i també basada en la forma fonètica acs ppnat per tal d’nativitzar paraules comunes i noms propis en anglès i paraules comunes en català en frases en castellà. Els resultats obtinguts mostren que l’analogia fonètica dóna un millor rendiment que l’analogia en el domini ortogràfic pels noms propis i paraules comunes. No obstant això, els resultats obtinguts per als noms propis anglesos es troben uns 12 punts percentuals per sota dels obtinguts per a les paraules comunes en anglès. Això és degut al fet que la pronunciació noms propis està influenciada per factors més complexos i fins i tot per als éssers humans presenta importants reptes. L’algorisme TBL també s’ha aplicat per millorar els resultats de nativización per inclusions angleses. S’obtenen millores per als resultats obtinguts per P2Pnat, així com per als resultats obtinguts per les taules de nativiztació. Els bons resultats obtinguts per l’algorisme TBL aplicat a la predicció del mètode ML demostra l’eficàcia del mètode d’aprenentatge a partir d’errors, també per a aquesta tasca. A l’avaluació perceptual duta a terme per inclusions angleses en castellà, es va demanar als oients que votessin el millor dels tres mètodes disponibles: G2P (per castellà), NatTAB i P2Pnat. P2Pnat és triat com el millor en el 50 % dels casos mentre que el G2P per a espanyol obté la majoria de vots negatius (45 % dels casos). Aquests resultats perceptuals i els encoratjadors resultats objectius demostren la idoneïtat de nativització per sistemes TTS multilingües / Hace tan sólo unos diez años, las aplicaciones de sistemas TTS estaban mucho más limitadas, aunque un pasado tan reciente parece más lejano debido a los cambios producidos en nuestras vidas por la invasión masiva de las tecnologías inteligentes. Los procesos de automatización de los servicios han alcanzado a nuevos niveles. ¿Qué es lo que define un buen sistema TTS hoy en día? El mercado exige que éste sea muy adaptable a cualquier tipo de ámbito. También es imprescindible un alto nivel de fiabilidad, ya que un simple error de un TTS puede causar problemas serios en nuestro día a día. Nuestra agenda es cada vez más exigente y tenemos que hacer frente a un volumen cada vez mayor de información en menos tiempo. Delegamos nuestras tareas cotidianas a nuestros dispositivos inteligentes que nos ayudan a leer libros, elegir productos, encontrar un lugar en el mapa, etc. Además, cada día viajamos más, aprendemos a hablar nuevas lenguas, las mezclamos, volviéndonos más y más globalizados. Un sistema TTS que no sea capaz de hacer frente a las entradas multilngües no será capaz de sostener la competencia. Los sistemas TTS modernos tienen que ser multilngües. La transcripción fonética es el primer módulo del TTS por lo cual su correcto funcionamiento es fundamental. Esta tesis se centra en la mejora de la adaptabilidad, fiabilidad y soporte del módulo fonético de nuestro sistema TTS. El módulo de transcripción fonética del TTS pasó de ser basado en reglas o diccionarios a ser automática, basada en datos. La lengua está en constante evolución al igual que todos los organismos vivos. Es por eso que la adaptabilidad es uno de los principales problemas de la transcripción fonética. Para mejorarla se necesita un método basado en datos que funcione bien para derivar la pronunciación de palabras no encontradas en el léxico del sistema. En esta tesis se comparan diferentes métodos G2P basados en datos, utilizando los mismos datos de entrenamiento y test y se proponen mejoras. Se han estudiado clasificadores basados en datos, tales como árboles de decisión, traductores de estados finitos y modelos de Markov, aplicados a la tarea de transcripción fonética y comparando los resultados. El algoritmo TBL, basado en aprendizaje de los errores y que permite capturar patrones de errores y corregirlos ha aportado nuevas mejoras, que han sido especialmente significativas para los clasificadores con tasa de error más alta. Los mejores resultados se obtienen mediante la aplicación del mejor clasificador FST con posterior corrección de los errores por el TBL. Los resultados obtenido por otros clasificadores y corregidos por el TBL muestran mejoras entre 2-4 puntos porcentuales en la tasa de error de las palabras. La mejora que se obtiene mediante la aplicación del TBL para a los resultados del clasificador más simple, basado solamente en correspondencias letra-fonema presentes en el corpus de entrenamiento, ML, es enorme (77-83 puntos porcentuales dependiendo del léxico), lo que demuestra la eficacia del TBL por si solo. El éxito del algoritmo TBL demuestra la eficacia del aprendizaje basado en los errores, que es bastante similar al aprendizaje de lenguas por los humanos. Otra técnica que los seres humanos utilizan de forma regular en el aprendizaje de idiomas es pronunciación por analogía. Esto es aún más cierto para lenguas con ortografía profunda, donde la correspondencia entre la forma escrita y hablada es bastante ambigua. Para mejorar aún más la capacidad de adaptación de nuestro módulo de pronunciación fonética, se ha estudiado un algoritmo de pronunciación por analogía. Este algoritmo encuentra arcos de letras a los que corresponde la misma pronunciación y calcula su frecuencia. La pronunciación de una nueva palabra se construye con los arcos más largos que constituyen el camino más corto a través del grafo de todas las pronunciaciones disponibles para esta palabra. Se basa en parámetros tales como la frecuencia de arco, posición en la palabra, etc., las pronunciaciones que contienen el menor número de arcos (si hay más de una ) se dan un rango y las estrategias de puntuación escogen la mejor opción. En esta tesis se han propuesto nuevas estrategias de puntuación, obteniéndose resultados prometedores. Una de las nuevas estrategias propuestas claramente supera a los demás. Además, las estrategias propuestas también aparecen seleccionadas al observar las mejores combinaciones de estrategias. Los mejores resultados para PbA son entre 63 y 88% palabras correctas según el léxico. Se obtienen resultados G2P no solamente para el inglés, sino también para otros idiomas europeos. También se ha considerado el caso del habla continua, adaptando la pronunciación para el habla continua del inglés, utilizando las llamadas formas débiles. Los resultados generales muestran que la capacidad de adaptación del módulo fonético ha sido mejorada. Otra línea de investigación en esta tesis se encamina a aumentar la fiabilidad del módulo fonético. Aunque, los resultados experimentales para el G2P son bastante buenos, todavía existen errores que pueden impedir que la inteligibilidad de ciertas palabras y, por lo tanto, reducir la calidad del habla en general. Para lograr un mayor nivel de fiabilidad se propone utilizar la fusión de diccionarios. Las pronunciación de las palabras presentes en los distintos diccionarios depende de muchos factores, por ejemplo: opinión experta, especificaciones del acento local, alfabeto fonético elegido, nivel de asimilación (para nombres propios), etc. A menudo hay discrepancias entre la pronunciación de la misma palabra en diferentes léxicos. Por lo general, estas discrepancias, aunque a veces significativas, no obstaculizan gravemente la pronunciación global de la palabra ya que todas las pronunciaciones léxico han sido previamente validadas por un lingüista experto. Estas discrepancias normalmente se encuentran en la pronunciación de vocales y diptongos. La sustitución de vocales por otras similares no se considera un error grave porque no afecta la inteligibilidad y por lo tanto la calidad de voz. El sistema de fusión estudiado es un sistema P2P que transforma las pronunciaciones del léxico de origen en pronunciaciones del léxico destino (el sistema está capacitado para aprender estas transformaciones). Para entrenar el clasificador, se seleccionan las entradas comunes entre el léxico fuente y destino. Se han realizado experimentos tanto para las palabras comunes como para los nombres propios, considerando los métodos de transformación basados en DT y FST. Los resultados experimentales muestran que la calidad del habla en general se puede mejorar significativamente dadas las bajas tasas de error de G2P y la amplia cobertura del diccionario del sistema. Un sistema TTS adaptable y fiable tiene que estar preparado para afrontar el reto del multilingüísmo, fenómeno que ya forma parte habitual de nuestras vidas cotidianas. Esta tesis también ha considerado contextos que contienen la mezcla de lenguas, en los que la lengua puede cambiar de forma inesperada. Este tipo de contextos abundan en las redes sociales, foros, etc. Se propone un esquema de G2P multilngüe incluyendo la nativización. El primer componente de un TTS multilngüe es el módulo de identificación de idioma. Se ha desarrollado un identificador de idioma basado n -gramas (de letras) que proporciona buenos resultados. Los contextos en los que intervienen varias lenguas deben ser tratados con especial delicadeza. Por lo general, cada frase o párrafo tienen una lengua principal y las palabras extranjeras presentes en ella se consideran inclusiones. Al definir la estrategia sobre cómo pronunciar frases en varias lenguas puede partirse de dos escenarios: 1) aplicar a cada lengua un clasificador G2P distinto e independiente (que produciría cambios fonéticos bruscos que sonarían muy poco natural); 2) aplicar el clasificador G2P para el idioma principal de la frase suponiendo que esta pronunciación sería más aceptable que la que contiene fonemas extranjeros. Pero, ¿y si ninguno de los escenarios anteriores ofrece una calidad aceptable? Para países como España, donde el dominio de lenguas extranjeras por la población general es bastante limitado proponemos nativizar la pronunciación de palabras extranjeras en frases españolas. ¿Qué criterios se deben utilizar dadas las significativas diferencias en el inventario de fonemas? El objetivo ha sido obtener pronunciaciones que no son del todo desconocidas y que sean aceptadas tanto por hablantes nativos o con alto dominio del idioma extranjero como por hablantes de esa lengua con nivel medio o bajo. La nativización se lleva a cabo estudiando específicamente las inclusiones inglesas y catalanas en frases en castellano. Cuando hay diferencias significativas en los inventarios de fonemas entre las lenguas nativización presenta retos adicionales. Con el fin de validar rápidamente la idea de nativización se crearon tablas de mapeo de fonemas extranjeros a los nativizados y se llevó a cabo una evaluación perceptual. La nativización basada en tablas muestra un mayor nivel de aceptación por parte del público que la síntesis sin nativización. A fin de mejorar aún más los resultados de nativización de forma eficaz se propone aplicar un método basado en datos. Como gran parte de pronunciaciones extranjeras se aprenden por analogía, la aplicación del PbA a esta tarea es idóneo, sobre todo porque ya ha demostrado excelentes resultados para la tarea de transcripción fonética. Para ello se explora la analogía tanto en el dominio ortográfico como fonético. Todos los métodos basados en datos requieren un corpus de entrenamiento y PbA, por supuesto, no es una excepción. Ya que ningún corpus de nativización adecuado para la tarea estaba disponible se tomó la decisión de crear un corpus de entrenamiento y test para entrenar y validar nuestro clasificador para inclusiones inglesas en castellano y otro similar para las catalanas. Ambos corpus de entrenamiento contienen 1.000 palabras y son ortográficamente equilibrados. Se aplica la nativización por analogía basada en la forma ortográfica de la palabra G2Pnat y también basada en la forma fonética P2Pnat con el fin de nativizar palabras comunes y nombres propios en inglés y palabras comunes en catalán en frases en castellano. Los resultados obtenidos muestran que la analogía fonética da un mejor rendimiento que la analogía en el dominio ortográfico para los nombres propios y palabras comunes. Sin embargo, los resultados obtenidos para los nombres propios ingleses se encuentran unos 12 puntos porcentuales por debajo de los obtenidos para las palabras comunes en inglés. Esto es debido al hecho de que la pronunciación nombres propios está influenciada por factores más complejos e incluso para los seres humanos presenta importantes retos. El algoritmo TBL también se ha aplicado para mejorar los resultados de nativización para inclusiones inglesas. Se han obtenido mejoras tanto para los resultados obtenidos por P2Pnat, como para los resultados obtenidos por las tablas de nativización. Los buenos resultados obtenidos por el algoritmo TBL aplicado a la predicción del método ML demuestra la eficacia del método de aprendizaje a partir de errores también para esta tarea. En la evaluación perceptual llevada a cabo para ilusiones inglesas en castellano, se pidió a los oyentes que votaran el mejor de los tres métodos disponibles: G2P (para castellano), NatTAB y P2Pnat. P2Pnat es elegido como el mejor en el 50 % de los casos mientras que el G2P para español obtiene la mayoría de votos negativos (45 % de los casos). Estos resultados perceptuales así como los alentadores resultados objetivos demuestran la idoneidad de nativización para sistemas TTS multilngües.
66

Optimization of field matching in external photon beam radiation therapy

Hernández Masgrau, Víctor 07 November 2013 (has links)
La consulta íntegra de la tesi, inclosos els articles no comunicats públicament per drets d'autor, es pot realitzar prèvia petició a l'Arxiu de la UPC / Radiation therapy is one of the main modalities used for treating cancer patients, together with surgery and chemotherapy. Radiotherapy treatments can be carried out with a great variety of devices, but most treatments are currently delivered with megavoltage x-ray beams produced by medical linear accelerators (linacs). Many treatments are carried out with adjacent radiation fields, which need to be matched. Field matching is a complex problem, which presents several geometrical and dosimetrical challenges. This thesis deals with different aspects related to field matching using medical linacs. The aim is to optimize the process in order to improve the accuracy of this technique in clinical practice. The results of the thesis are included in four publications. Two of them focus on the geometrical problem of field matching; the other two on the optimization in single-isocenter half-beam (SIHB) techniques. In the first group the geometrical problem of matching the adjacent fields is addressed. Fields with different isocenters can be matched by rotating the couch and the collimator and selecting the appropriate field sizes in such a way that their side planes are coincident. For the first time a general analytical solution to this problem, applicable to any field configuration, is presented. The solution provides all the parameters needed to achieve a geometrically exact match. Additionally, the general analytical solution permits to derive simplified expressions for particular treatment techniques. Another important advantage of the general solution is that it allows to draw practical conclusions regarding field matching in clinical practice. In the second group, issues regarding the SIHB technique are investigated. In this technique one of the asymmetric jaws is set to zero in such a way that half-fields with no divergence at the central axis are combined. First, the effect of the field setup on the dosimetry of abutted fields in SIHB techniques is analyzed. Results show that the field setup has an important influence on the dosimetry at the junction. Thus, having a uniform dose distribution for two fields at gantry 0° does not guarantee a uniform distribution for other field arrangements. In addition, junction doses are largely affected by the relative position of the radiation fields involved. Studies aiming to assess or to optimize the homogeneity of the dose distribution at the junction should, therefore, take this effect into account. Second, a new method to calibrate the zero jaw position is proposed that improves its accuracy. This is important because in the SIHB technique the zero position of the jaw is critical for the dose homogeneity at the junction. The presented method allows a more accurate and safer use of half-beam techniques. / La radioterapia es una de las principales modalidades para tratamiento del cáncer, junto con la cirugía y la quimioterapia. Los tratamientos de radioterapia se pueden administrar con una gran variedad de equipos, pero en la mayoría de los casos se usan haces de rayos X producidos por aceleradores lineales. En muchos de estos tratamientos se usan haces de radiación adyacentes, que se deben de unir adecuadamente. La unión de campos es un problema complejo, que plantea retos tanto geométricos como dosimétricos. Esta tesis trata de diversos aspectos relacionados con la unión de campos usando aceleradores lineales. El objetivo es optimizar el proceso para mejorar la exactitud de esta técnica en la práctica clínica. Los resultados de esta tesis se incluyen en cuatro publicaciones. Dos de ellas tratan el problema geométrico de la unión de campos; los otros dos tratan la optimización en técnicas de hemicampos con isocéntrico único. En el primer grupo se plantea el problema de unir campos con distintos isocentros mediante rotaciones de la mesa y del colimador y mediante la selección de los tamaños de campo adecuados. De este modo se puede conseguir que los planos definidos por los lados de los haces de radiación sean coincidentes, obteniendo así una unión geométrica exacta. Por primera vez se presenta una solución general analítica a este problema, que es aplicable a cualquier configuración de campos. La solución proporciona todos los parámetros necesarios para obtener una unión de campos geométrica exacta. Adicionalmente, esta solución permite deducir expresiones simplificadas para técnicas de tratamiento particulares. Otra ventaja importante de la solución general es que permite deducir conclusiones prácticas respecto al problema de la unión de campos en la práctica clínica. En el segundo grupo se investigan aspectos relacionados con con la técnica de hemicampos con isocentro único. En esta técnica una de las mandíbulas asimétricas se coloca en su posición 'cero', de modo que se combinan hemicampos sin divergencia en el eje central. En primer lugar se analiza la influencia de la configuración de los campos en la zona de la unión. Los resultados muestran que la disposición de los campos tiene un efecto dosimétrico importante. Por consiguiente, tener una distribución de dosis homogénea para dos campos con el brazo a 0° no garantiza la homogeneidad para otras configuraciones de campos. Adicionalmente, las dosis en la unión son dependientes de la posición relativa de los campos de radiación usados. En consecuencia, aquellos estudios que pretendan estimar u optimizar la homogeneidad de la distribución de dosis deberían tener este efecto en consideración. En segundo lugar se propone un nuevo método para calibrar la posición cero de las mandíbulas que mejora de forma importante su exactitud. Esta calibración es importante porque en la técnica de hemicampos con isocentro único la homogeneidad de la dosis en la unión depende fuertemente de la posición cero de las mandíbulas. El método presentado permite, por tanto, un uso más preciso y seguro de estas técnicas en la práctica clínica.
67

Experimental investigation of induced supersonic boundary layer transition

Bottini, Henny 28 March 2014 (has links)
Turbulence onset within an initially laminar flow is one of the most common phenomenon in Fluid Mechanics, yet is an open field of research. This is due to the many and diverse causes that can trigger turbulence, which often add to each other, change their effect upon the flow velocity, and are difficult to single out in real-world situations. This is why laminar-toturbulent transition experiments have been and still are a fundamental tool for the researcher. This thesis work has addressed the study of turbulence onset in supersonic flows from an experimental point of view. Two test campaigns have been carried out each in a dedicated supersonic wind tunnel. The first aimed at tracking turbulence onset triggered by a single tetrahedral roughness element. It has been carried out in a multiple-Mach-number supersonic wind tunnel whose qualification campaign has been completed within this thesis work. Two roughness heights were tested, both for two Mach numbers, 1.6 and 2.3. The second test campaign has investigated the effects of an oblique shock wave impinging onto a Mach-2 transitional boundary layer. The transitional state of a boundary layer is that state during which the boundary layer passes from fully laminar to fully turbulent. This passage can be either induced or natural, and it was represented in this thesis work by the trigger wake and by the boundary layer flow downstream of the release point of an electric spark, respectively. Surface sensors, as thin-films and piezoelectric pressure transducers, were used to measure steady and unsteady highfrequency flow evolutions. Different wall temperatures were set for the thin-films insert as to allow the experimental estimation of the recovery temperature. Convective heat-flux trends have been extracted from the steady measurements, which, together with the recovery temperature trends, allowed the calculation of the Stanton number trends. All these quantities let to conclude on the general state of the boundary layer investigated in the first test campaign. The post-processing of the unsteady measurements yielded temperature and pressure fluctuations spectra and RMS streamwise evolutions, along with spectral time evolution at a given position. For the first test campaign, they allowed the characterization of the unsteadiness produced by the roughness within the supersonic boundary layer at different downstream locations. In so doing, they helped conclude on the state of the boundary layer, thus on the effectiveness of the roughness in triggering transition to turbulence. For the second test campaign, they allowed to single out the unsteady effects of the shock impinging downstream of the single roughness and downstream of the electric spark release point. In this way, differences in the shock effect between the roughness configuration and the clean-plate configuration have been highlighted, and the effects of different spark release frequencies compared. / El desarrollo de la turbulencia en el interior de un flujo inicialmente laminar, a pesar de ser uno de los fenómenos más comunes en la mecánica de fluidos, continúa siendo un campo abierto de investigación. Esto es debido a las muchas y diversas causas que condicionan la transición de flujo laminar a régimen turbulento, a menudo actuando de modo combinado, cuyo efecto cambia con la velocidad del flujo y las cuales son difíciles de aislar en situaciones reales. Este es el motivo por el cual los experimentos que estudian la transición de régimen laminar a turbulento han sido y continúan siendo una herramienta fundamental para el investigador. Esta tesis doctoral ha abordado el estudio del comienzo de la turbulencia en flujos supersónicos desde un punto de vista experimental. Dos series de experimentos fueron realizados, cada uno en un túnel de viento supersónico específico. La primera serie tuvo como objetivo el seguimiento del inicio de la turbulencia causado por un único elemento de rugosidad de forma hexaédrica. Este tipo de experimentos fue realizado en un túnel de viento supersónico capaz de operar en un cierto rango de números de Mach, cuya caracterización fue completada en paralelo a esta investigación. Los experimentos fueron realizados a dos números de Mach, 1.6 y 2.3, y dos niveles de rugosidad diferentes variando la temperatura de pared. El objetivo de la segunda serie de medidas consistió en investigar los efectos del impacto de una onda de choque oblicua en una capa límite transitoria, en un flujo a Mach 2. El estado transitorio de una capa límite es aquel durante el cual la capa límite pasa de enteramente laminar a enteramente turbulenta. Esta transformación puede ser tanto natural como inducida. Ambos escenarios han sido reproducidos en esta tesis. La transformación natural ha sido representada mediante la presencia de un elemento de rugosidad, mientras que la transformación inducida se corresponde con el desarrollo de la capa límite aguas abajo del punto de liberación de chispas eléctricas. Para medir la evolución de flujos estacionarios y no estacionarios de alta frecuencia se emplearon sensores superficiales tales como thin-films y transductores piezoeléctricos de presión. Para determinar experimentalmente la temperatura de recuperación (recovery temperature) se aplicaron distintas temperaturas de pared a la pieza contenedora de los thin-films. De las medidas estacionarias se extrajeron las diferentes distribuciones del flujo de calor por convección, las cuales, junto con la distribución de la temperatura de recuperación, permitieron el cálculo de la distribución espacial del número de Stanton. Estos resultados permitieron llegar a una conclusión sobre el estado general de la capa límite investigada en la primera serie de experimentos. Las medidas no estacionarias proporcionaron espectros de fluctuación de temperatura y presión, y evoluciones longitudinales de residuos cuadráticos medios (MSR), así como espectros de evolución temporal en una posición dada. Estos datos permitieron caracterizar, en la primera serie de experimentos, la inestabilidad producida por la rugosidad en la capa límite supersónica en distintas posiciones aguas abajo. Ayudaron, por tanto, a determinar el estado de la capa límite y, co n ello, concluir en la efectividad de la rugosidad para provocar la transición a régimen turbulento. En la segunda serie de experimentos se pudieron señalar los efectos no estacionarios de la onda de choque incidiendo aguas debajo del elemento de rugosidad, y los efectos no estacionarios de la onda incidente aguas abajo del punto de liberación de chispas eléctricas. De este modo, se han identificado las diferencias entre el efecto de una onda de choque en presencia de un elemento de rugosidad y en el caso de la configuración limpia, y se han comparado los efectos del uso de diferentes frecuencias de descargas eléctricas
68

Design and validation of a methodology for wind energy structures health monitoring

Zugasti Uriguen, Ekhi 16 January 2014 (has links)
L’objectiu de la Monitorització de la salut estructural (SHM) és la verificació de l’estat o la salut de les estructures per tal de garantir el seu correcte funcionament i estalviar en el cost de manteniment. El sistema SHM combina una xarxa de sensors connectada a l’estructura amb monitoratge continu i algoritmes específics. Es deriven diferents beneficis de l’aplicació de SHM, on trobem: coneixement sobre el comportament de l’estructura sota diferents operacions i diferents càrregues ambientals , el coneixement de l’estat actual per tal de verificar la integritat de l’estructura i determinar si una estructura pot funcionar correctament o si necessita manteniment o substitució i, per tant, reduint els costos de manteniment. El paradigma de la detecció de danys es pot abordar com un problema de reconeixement de patrons (comparació entre les dades recollides de l’estructura sense danys i l’estructura actual, per tal de determinar si hi ha algun canvi) . Hi ha moltes tècniques que poden gestionar el problema. En aquest treball s’utilitzen les dades dels acceleròmetres per desenvolupar aproximacions estadístiques utilitzant dades en temps per a la detecció dels danys en les estructures. La metodologia s’ha dissenyat per a una turbina eòlica off - shore i només s’utilitzen les dades de sortida per detectar els danys. L’excitació de la turbina de vent és induïda pel vent o per les ones del mar. La detecció de danys no és només la comparació de les dades. S’ha dissenyat una metodologia completa per a la detecció de danys en aquest treball. Gestiona dades estructurals, selecciona les dades adequades per detectar danys, i després de tenir en compte les condicions ambientals i operacionals (EOC) en el qual l’estructura està treballant, es detecta el dany mitjançant el reconeixement de patrons. Quan es parla del paradigma de la detecció de danys sempre s’ha de tenir en compte si els sensors estan funcionant correctament. Per això és molt important comptar amb una metodologia que comprova si els sensors estan sans. En aquest treball s’ha aplicat un mètode per detectar els sensors danyats i s’ha insertat en la metodologia de detecció de danys. / The objective of Structural Health Monitoring (SHM) is the verification of the state or the health of the structures in order to ensure their proper performance and save on maintenance costs. The SHM system combines a sensor network attached to the structure with continuous monitoring and specific, proprietary algorithms. Different benefits are derived from the implementation of SHM, some of them are: knowledge about the behavior of the structure under different loads and different environmental changes, knowledge of the current state in order to verify the integrity of the structure and determine whether a structure can work properly or whether it needs to be maintained or replaced and, therefore, reduce maintenance costs. The paradigm of damage detection can be tackled as a pattern recognition problem (comparison between the data collected from the structure without damages and the current structure in order to determine if there are any changes). There are lots of techniques that can handle the problem. In this work, accelerometer data is used to develop statistical data driven approaches for the detection of damages in structures. As the methodology is designed for wind turbines, only the output data is used to detect damage; the excitation of the wind turbine is provided by the wind itself or by the sea waves, being those unknown and unpredictable. The damage detection strategy is not only based on the comparison of many data. A complete methodology for damage detection based on pattern recognition has been designed for this work. It handles structural data, selects the proper data for detecting damage and besides, considers the Environmental and Operational Conditions (EOC) in which the structure is operating. The damage detection methodology should always be accessed only if there is a way to probe that the sensors are correctly working. For this reason, it is very important to have a methodology that checks whether the sensors are healthy. In this work a method to detect the damaged sensors has been also implemented and embedded into the damage detection methodology. / El objetivo de la Monitorización de la salud estructural (SHM) es la verificación del estado o la salud de las estructuras con el fin de garantizar su correcto funcionamiento y ahorrar en el costo de mantenimiento. El sistema SHM combina una red de sensores conectada a la estructura con monitorización continua y algoritmos específicos. Se derivan diferentes beneficios de la aplicación de SHM, donde encontramos: conocimiento sobre el comportamiento de la estructura bajo diferentes operaciones y diferentes cargas ambientales, el conocimiento del estado actual con el fin de verificar la integridad de la estructura y determinar si una estructura puede funcionar correctamente o si necesita mantenimiento o sustitución y, por lo tanto, reduciendo los costes de mantenimiento. El paradigma de la detección de daños se puede abordar como un problema de reconocimiento de patrones (comparación entre los datos recogidos de la estructura sin daños y la estructura actual, con el fin de determinar si hay algún cambio). Hay muchas técnicas que pueden manejar el problema. En este trabajo se utilizan los datos de los acelerómetros para desarrollar aproximaciones estadísticas utilizando datos en tiempo para la detección de los daños en las estructuras. La metodología se ha diseñado para una turbina eólica off-shore y sólo se utilizan los datos de salida para detectar los daños. La excitación de la turbina de viento es inducida por el viento o por las olas del mar. La detección de daños no es sólo la comparación de los datos. Se ha diseñado una metodología completa para la detección de daños en este trabajo. Gestiona datos estructurales, selecciona los datos adecuados para detectar daños, y después de tener en cuenta las condiciones ambientales y operacionales (EOC) en el que la estructura está trabajando, se detecta el daño mediante el reconocimiento de patrones. Cuando se habla del paradigma de la detección de daños siempre se debe tener en cuenta si los sensores están funcionando correctamente. Por eso es muy importante contar con una metodología que comprueba si los sensores están sanos. En este trabajo se ha aplicado un método para detectar los sensores dañados y se ha metido en la metodología de detección de daños
69

Prediction and improvement of part quality in multi-station machining systems applying the Stream of Variation model

Abellán Nebot, José Vicente 16 December 2011 (has links)
Recent research efforts have been aimed toward deriving mathematical models to relate manufacturing sources of variation with part quality variations in multi-station machining systems in order to integrate design and manufacturing knowledge. Such integration would make it possible to create a large number of applications to improve product and process design and manufacturing in areas such as fault diagnosis, best placement of inspection stations, process planning, dimensional control and process-oriented tolerancing. However, nowadays there are still important limitations on the development of these models and even some of their potential applications have still not been studied in detail. The comprehensive research work described in this dissertation contributes to overcome some of the current limitations in this field. The dissertation is divided into three parts. The first part presents a comprehensive literature review of machining sources of error that produce macro and/or micro-geometrical variations on machined surfaces, and the 3D manufacturing variation models (the Stream of Variation model – SoV – and the Model of the Manufactured Part – MoMP) applied in the literature to analyze the propagation of those variations in multi-station machining processes. The second part of the dissertation highlights the current limitation of the SoV model through an experimental study where fixture- and machining-induced variations are analyzed. To overcome this limitation, the extension of the SoV model is formulated by modeling and adding machining-induced variations. The third part of the dissertation presents some potential applications of the SoV model and its extended version for part quality improvement. The first application shows how to apply the SoV model together with sensor-based fixtures when there are CNC machine-tools in the multi-station machining system in order to modify the cutting-tool path and partially compensate the expected part quality error. The second developed application deals with the evaluation and improvement of manufacturing process plans by integrating the SoV model and historical shop-floor quality data. Finally, the third application shows the use of the extended SoV model for the improvement of process-oriented tolerancing in multi-station machining processes.
70

Analysis of process-induced defects on steered-fiber panels for aeronautical applications

Falcó Salcines, Olben 10 April 2014 (has links)
Currently, the use of Automated Fiber Placement technology allows, large composite aircraft components to be manufactured with high quality materials and introduce new laminate concepts. Among such concepts are the tow-steered panels with curved fibers improved the structural efficiency by means variable stiffness and loading redistribution. However, despite these advantages, conventional laminates with straight fiber architectures are still preferred by designers. The main reason that limits the use of variable stiffness laminates is the incomplete knowledge of the effect of process-induced defects and the response to damage and structural failure mechanisms. The work presented in this thesis focuses on analyzing this influence. A methodology for modeling numerical simulation, which takes into account the manufacturing constraints, has been developed. This pre-processing tool enables unconventional laminates to be delineated and allows for progressive damage. In addition, experimental tests have been carried out to study the effects on the mechanical response of manufacturing defects due to tow-drops / Actualment, l'ús de la tecnologia de 'Automated Fiber Placement' permet, la fabricació de grans components de compòsit per a avions amb una elevada qualitat i, a la vegada, ens dóna la possibilitat d'introduir nous conceptes de laminats. Entre aquests conceptes hi ha els 'tow-steered panels" amb fibres corbes que destaquen per la millora de l'eficiència estructural donada la seva capacitat d'obtenir rigidesa variable i de redistribució de càrregues. Tanmateix, malgrat aquestes avantatges, els laminats convencionals amb arquitectures de fibres rectes són encara la solució preferida pels dissenyadors. Les principals raons que limiten l'ús dels laminats de rigidesa variable és l'incomplet coneixement de l'efecte dels defectes induïts durant la seva fabricació i la seva resposta als mecanismes de dany i de fallada estructural. L'estudi de la influència dels defectes induïts en la fabricació en els panells de rigidesa variable es troba en una fase inicial de recerca. El treball presentat en aquesta tesi està enfocat en l'anàlisi d'aquesta influència. Pel compliment d'aquest objectiu, primer ha estat desenvolupada una metodologia de modelat per a la simulació numèrica que té en compte les limitacions de fabricació. Aquesta eina de pre-procés permet definir els laminats no convencionals que permetrà la simulació del dany progressiu des del seu inici fins a la fallada final d'aquest tipus de dissenys. A la segona part d'aquesta tesi, s'han portat a terme assaigs experimentals per a l'estudi dels efectes sobre la resposta mecànica dels defectes de fabricació deguts als 'tow-drop'

Page generated in 0.3675 seconds