• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 11
  • 3
  • 1
  • Tagged with
  • 93
  • 93
  • 45
  • 39
  • 26
  • 21
  • 21
  • 18
  • 18
  • 18
  • 17
  • 16
  • 14
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Detección y cuantificación de Trichoderma harzianum, y evaluación de su actividad biocontrol frente a la fusariosis vascular del melón mediante la aplicación de herramientas moleculares

López Mondéjar, Rubén 14 July 2011 (has links)
No description available.
32

Corrección y mejora del análisis de humedad del carbón térmico por medios no destructivos en tiempo real

Santurio Díaz, Jose Mª 25 July 2002 (has links)
El carbón es el combustible fósil más abundante en el mundo. No solamente existen grandes reservas, sino que estas se encuentran ampliamente repartidas.Actualmente el carbón es la mayor fuente de energía primaria para la producción termoeléctrica a nivel mundial. También resulta indispensable para otros procesos industriales como son la producción siderúrgica.El rechazo social hacia la energía nuclear y las previsiones sobre la disponibilidad y precio de otros combustibles como el petróleo y el gas natural, hacen prever que el carbón va a seguir siendo un combustible a tener muy en cuenta, a medio y largo plazo, como fuente de energía especialmente en los países en vías de desarrollo.Además, los problemas medioambientales derivados del uso de combustibles fósiles han impulsado el desarrollo de tecnologías encaminadas a mejorar la eficiencia y reducir las emisiones contaminantes a los cada vez más restrictivos niveles adoptados en los protocolos internacionalesEn este aspecto, el desarrollo de técnicas para el análisis de las propiedades del carbón en tiempo real y de manera continua, representa un punto de apoyo significativo para las tecnologías de aprovechamiento óptimo de este combustible.La humedad y el contenido en cenizas son dos parámetros básicos para establecer la calidad del carbón. La posibilidad de conocer en todo momento la humedad y el contenido en materia mineral de la masa de carbón que va a ser consumida en una caldera, permite el ajuste rápido, e incluso de forma automática, de los parámetros de funcionamiento de manera que la combustión se realice siempre en las mejores condiciones posibles.Una técnica que se ha revelado como muy satisfactoria para la determinación de la humedad en flujos de carbón es la transmisión de microondas. El contenido en materia mineral puede medirse mediante la detección de la radiactividad natural del carbón; técnica bastante sencilla aunque adolece de algunos problemas de precisión y resolución.Un problema común a ambas es la dificultad que existe para obtener unas calibraciones de los equipos de medida, que sean válidas para distintas variedades de carbón. Normalmente es necesario obtener y aplicar distintas curvas de calibración; una para cada tipo de carbón.El trabajo experimental que ha dado lugar a esta Tesis, se ha centrado en buscar la manera de obtener ecuaciones de calibración, tanto de humedad como de cenizas, en las que todos los carbones son considerados como un solo grupo y por tanto cada calibración es única para todos ellos; lo cual resulta mucho más interesante para una aplicación práctica de tal metodología.Los ensayos se han efectuado en una planta piloto que simula la cinta transportadora del alimentador de una caldera. Para medir el contenido en humedad y las cenizas, se instalaron respectivamente un analizador de microondas y un detector de radiactividad natural.Tras el tratamiento estadístico de las medidas, los resultados han sido correlacionados con los obtenidos por medio de análisis de laboratorio según normas en uso. Se ha comprobado que es posible corregir las calibraciones para el cálculo de humedad, con resultados muy satisfactorios, utilizando las medidas que se toman para la determinación de cenizas. También se ha comprobado la posibilidad de corregir las calibraciones para el cálculo de cenizas, utilizando las medidas que se toman para la determinación de la humedad.
33

Arquitectura asimétrica multicore con procesador de Petri

Micolini, Orlando January 2015 (has links)
Se ha determinado, en una arquitectura multi-Core SMP, el lugar donde incorporar el PP o el HPP sin alterar el ISA del resto de los core. Se ha obtenido una familia de procesadores que ejecutan los algoritmos de Petri para dar solución a sistemas reactivos y concurrentes, con una sólida verificación formal que permite la programación directa de los procesadores. Para esto, se ha construido el hardware de un PP y un HPP, con un IP-Core en una FPGA, integrado a un sistema multi-Core SMP, que ejecuta distintos tipo de RdP. Esta familia de procesadores es configurable en distintos aspectos: - Tamaño del procesador (cantidad de plazas y transiciones). - Procesadores con tiempo y procesadores temporales. - Arquitectura heterogénea, que permite distribuir los recursos empleados para instanciar el procesador según se requiera, y obtener un ahorro sustancial. - La posibilidad de configurar el procesador en pos de obtener los requerimientos y minimizar los recursos. Muy valorado en la construcción de sistemas embebidos. En los sistemas con alta necesidad de concurrencia y sincronización, donde se ha evaluado este procesador, las prestaciones han mostrado una importante mejora en el desempeño. El procesador tiene la capacidad de resolver simultáneamente, por conjuntos múltiples disparos, lo que disminuye los tiempos de consulta y decisión, además los programas ejecutados cumplen con los formalismos de las RdP extendidas y sincronizadas, y los resultados de su ejecución son determinísticos. Los tiempos de respuesta para determinar una sincronización son de dos ciclos por consulta (entre la solicitud de un disparo y la respuesta).
34

Seguimiento 3D de Rostros e Iris Mediante Moldes Antropométricos

Lazcano González, Vanel Andrés January 2006 (has links)
En el seguimiento de rostros e iris existe una gran cantidad de trabajos publicados, basados en diferentes técnicas consideras invasivas como: montaje de dispositivos electrónicos (electrodos, cámaras). Aprovechando la mayor velocidad de procesamiento alcanzada por los computadores personales y la disminución de costos de los sistemas de adquisición de video, se han desarrollado diferentes métodos no invasivos para el seguimiento de iris y rostros. En el Departamento de Ingeniería Eléctrica de la Universidad de Chile, se desarrolló un método no invasivo de seguimiento de iris que consiste en tres etapas: detección gruesa de la posición del rostro, detección fina y estimación del tamaño del rostro, y detección de la posición y tamaño del iris. La detección gruesa usa la metodología de Maio y Maltoni. La detección fina se realiza con una integral de línea, utilizando un molde antropométrico del rostro inclinado en el eje coronal, transversal y sagital, sobre una imagen direccional de entrada, estimándose así la posición, inclinación y tamaño del rostro. Conociendo estos valores es posible definir zonas de búsqueda más probables del iris. En la que se busca la posición y tamaño del iris recorriéndola con unos moldes semicirculares. Para el desarrollo de los nuevos moldes antropométricos y validación de la metodología, se construyeron bancos de imágenes estáticas de 5 individuos con rotaciones en el eje transversal. Los individuos rotaron sus rostros desde -45º a 45º con un paso de 15º. Además se construyeron 4 secuencias de video para los mismos individuos, que rotan sus rostros en el eje transversal y coronal. Se construyeron 4 secuencias de video de individuos que rotan su rostro en el eje sagital. Con estos bancos de imágenes se construyeron modelos empíricos de la variación de las posiciones de las características antropométricas del rostro y la excentricidad del rostro, frente a las rotaciones, transversales y sagitales. Finalmente se construyeron 4 secuencias de video de individuos que rotan su rostro en los 3 ejes. La metodología desarrollada se evaluó en el banco de secuencias de video para las rotaciones en los diferentes ejes. Para la rotación transversal se obtuvo que en todas las secuencias el desempeño es mayor que 89% y en 2 alcanza el 100%. Para el caso de la detección del iris se observa que el porcentaje de detección correcta fue mayor que 75% y en 2 secuencias fue mayor que 90%. Para el seguimiento sagital se obtuvo que la detección de rostros en tres de las secuencias fue más de 89% sólo en una se tiene 78%, en una alcanza 99%. Para el caso de la detección del iris se observa que el porcentaje de detección correcta fue mayor que 89% en 3 de las secuencias y en 1 secuencia mayor que 86%. En la rotación 3D se obtuvo valores de la tasa de detección correcta del rostro en tres secuencias mayores que 93% y en sólo una es de 18%. La tasa de detección correcta del iris sólo en una secuencia presenta un valor de 83%, en otra se alcanza 89% y en dos de ellas se supera el 90% de detección correcta. La metodología desarrollada para el seguimiento de rostros selectiva en el eje transversal con un paso de 20º, en el sagital con paso de 20º y en el coronal con paso de 15º. Se midieron los tiempos de procesamiento para rotaciones coronal-transversal y 3D. Para estos ejes se obtuvo un tiempo promedio de 0,020 s, y 0,028 s respectivamente, pudiéndose procesar hasta 50 imágenes y 35 imágenes por segundos respectivamente. Estos tiempos se midieron en un computador Pentium 4 de 3,2 GHz. Estos resultados permiten aplicar la metodología en tiempo real.
35

¿Es necesario regular? : análisis del marco legal de los juegos de azar y apuestas en el Perú

Estrada Espinoza, Mayra Edith, García Vélez, Javier Humberto 12 April 2018 (has links)
Mediante el presente artículo, se intenta introducir al análisis del marco normativo aplicable a los principales Juegos de Azar y Apuestas existentes en el Perú, con énfasis en los Juegos de Lotería, en tanto constituyen actividades de particular relevancia y de necesaria tutela. Asimismo, se discute la mejor forma en la que se puede garantizar la sostenibilidad financiera, transparencia y credibilidad de los juegos de azar. A través de desarrollar que son los juegos de azar, señalar el tipo de regulación actual que se tiene respecto de estos juegos para al final llevarnos al debate de si en realidad es necesario regularlos y si la regulación actual es realmente eficiente a partir de considerar a esta actividad económicamente de creciente importancia sustantiva para el Estado. Through this article, the aim is to introduce the analysis of the regulatory framework applicable to the main gaming and betting activities existing in Peru, with emphasis on lottery activities, as they are particularly relevant activities and require appropriate monitoring. It also discusses the best way one can ensure financial sustainability, transparency and credibility of gambling activities. Through the development of what gambling activities are, indicating what type of current regulation is available on these games will finally lead us to the debate of whether it is actually necessary to regulate them and if present regulation is really efficient as to considering this important economic activity of increasing substantive importance for the State.
36

Wormholes Project: diseño, gestión e implementación de una red internacional de conexión audiovisual en tiempo

Pineda Herrera, Pedro Alberto January 2009 (has links)
Wormholes Project son pantallas gigantes instaladas en las redes de metro de distintas ciudades del mundo a través de las cuales las personas de distintos países podrán interactuar de modo audiovisual y en tiempo real. Su objetivo es hacer reexionar a la gente común y corriente (aquella que jamás viajará a Medio Oriente, Japón o Filipinas) sobre la existencia omitida del resto de personas que habita en el mundo, al permitir que accedan a ellos sensorial y socialmente, y de paso provocar que cuestione su rol frente a esta nueva realidad revelada. El presente trabajo busca justificar teóricamente, diseñar y registrar el primer intento fallido por implementar el prototipo entre Santiago de Chile y Tokio. La justificación teórica se vale de la obra de pensadores clásicos y contemporáneos, y de un par de estudios chilenos sobre cultura y raza respectivamente. En el diseño e intento de implementación participan instituciones chilenas importantes entre las que destacan la Universidad de Chile, Comisión Bicentenario y Metro. Wormholes busca aportar a un posicionamiento internacional protagónico de Chile en innovación, tecnología y democracia, y aportar a la consolidación de la imagen del Departamento de Ingeniería Industrial, de la Escuela de Ingeniería y de la Universidad de Chile, como principales focos generadores de iniciativas poderosas, innovadoras, protagónicas y democráticas en Chile. Este trabajo es la argumentación final previa al segundo intento de implementación del prototipo, a realizarse durante el año 2010.
37

Estudio de Factibilidad Técnico-Económico de una Planta Productora de Kits de Diagnóstico Clínico por PCR en Tiempo Real

Pacheco Vega, Carolina Elizabeth January 2009 (has links)
La presente memoria de título estudia la factibilidad de producir y vender en Chile kits de diagnóstico con tecnología PCR en tiempo real, para detectar los 40 principales patógenos humanos mediante PCR en tiempo real. Entre los que destacan el virus del sida HIV, de las hepatitis tipo B y C, meningitis viral y herpes. A partir del análisis del mercado nacional e internacional del diagnóstico molecular, se establecieron las oportunidades y amenazas, y se elaboró la cadena de valor del proceso para determinar las fortalezas y debilidades de la planta productiva. Luego de esto se analizaron dos modelos de negocio para el diagnóstico molecular: la prestación de servicios de laboratorios clínicos y el modelo de venta de kits, sin la prestación directa. Se concluye que los laboratorios clínicos presentan ventajas porque adquirirían los kits producidos para ampliar la gama de exámenes prestados por sus laboratorios sin incurrir en gastos de desarrollo, y porque éstos podrían externalizar la producción en gran escala de desarrollos propios. Se elaboró el diagrama de flujos del proceso y se buscaron las normas y reglamentaciones necesarias para la aprobación sanitaria, dada por el organismo regulador correspondiente. De esta búsqueda se estableció que el ISP es el organismo competente en estas materias, cuyas directrices en la elaboración de dispositivos médicos están dadas por la adopción de buenas prácticas de manufactura en el proceso productivo. Para una producción de 1300 kits al año (60% del mercado actual en Chile), se estableció que la inversión de capital requerida es de $593 millones, de los que $123 millones corresponden a equipos, con un precio promedio del kit (para 100 reacciones) de $336.500. El costo promedio anual de la planta es de $283 millones, con $144 millones en capital humano. Los resultados de la evaluación económica del negocio indican un valor presente neto (a la tasa del 12%), es de $1.079 millones, en un horizonte de evaluación de 10 años, con una tasa interna de retorno del 36 % y un tiempo de recuperación de la inversión de tres años. La producción de kits de diagnóstico en el marco del Plan de Negocios estudiado resulta atractiva, recomendándose fortalecer las estrategias de comercialización asociadas a los productos en el mercado favoreciendo la instalación de termocicladores en tiempo real en los laboratorios clínicos.
38

Detección y aislamiento del virus influenza A en porcinos de recría y crianza, pertenecientes a sistemas intensivos ubicados en la Zona Central de Chile

Arce Román, Raúl Antonio January 2016 (has links)
Memoria para optar al Título Profesional de Médico Veterinario / El virus de la influenza porcina o SIV (Swine Influenza Virus), es un patógeno que afecta el sistema respiratorio y produce una de las enfermedades más prevalentes a nivel de industria porcina. Está distribuido en todo el mundo y genera importantes pérdidas económicas. Además, SIV se considera un patógeno zoonótico con potencial pandémico. A partir del brote de influenza humana A H1N1 ocurrida el año 2009, ha surgido la necesidad de conocer y entender las dinámicas de evolución y transmisión de este virus, para beneficio de la salud humana y animal. Realizar un estudio en Chile adquiere especial relevancia, ya que se necesita conocer la realidad actual de SIV en los planteles de producción intensiva de cerdos. El presente estudio tiene como objetivo detectar y aislar virus de Influenza A en la población de cerdos de la zona central de Chile, territorio en donde se concentra la gran mayoría de los planteles de producción intensiva. Para esto se obtuvieron muestras de hisopos nasales y fluidos orales desde 6 granjas ubicadas en esta zona (regiones V, RM, VI y VII) entre el año 2014-2015 en distintas épocas del año. Se utilizó RT-PCR en tiempo real para detectar el virus y se aisló mediante cultivo celular usando células MDCK. Los resultados obtenidos demostraron la presencia del virus en todos los planteles muestreados. Hubo al menos dos muestras positivas a RT-PCR en tiempo real por granja. De las muestras sometidas a RT-PCR en tiempo real un 22,26% de ellas fueron positivas. Además se lograron aislar con éxito un total de 20 virus desde hisopos nasales y 2 desde fluidos orales, que corresponden a un 8,30% de las muestras obtenidas. Estos resultados indican que SIV es un patógeno frecuentemente encontrado en planteles de producción intensiva en Chile y altamente distribuido a nivel geográfico (desde la V a la VII región), por tanto podría considerarse endémico. / Swine Influenza virus (SIV) is an important respiratory pathogen in intensive pig population, generating significant economic losses for the industry. Also, SIV is a zoonotic pathogen with pandemic potential. Since the 2009 human pandemic caused by a swine origin Influenza virus H1N1, the concern about this pathogen in pigs has been increased. Then, is urgent to understand the dynamics of evolution and transmission of this virus, for animal and public health. The information about SIV in Chile is scarce; therefore any effort to understand or evidence SIV in the country is highly valuable. The aim of this study was the detection and isolation of SIV in intensive swine farms in central Chile, place where most of the pig are raising. Nasal swabs and oral fluids were collected from six farms (V, RM, VI and VII Regions) during 2014-2015 at different seasons through the year. Samples were tested by real time RT-PCR and virus isolation was attempted in canine kidney cells (MDCK). The results showed the presence of SIV in all farms tested. At least 2 samples per farm tested positive by real time RT-PCR. Overall results by real time RT-PCR have shown a 22.3% positive samples. Also, virus isolation was succeeding in 20 nasal swabs and 2 oral fluids, corresponding to 8.30% of the samples collected. Results indicate that SIV is widespread in pig population in the region can be considered endemic. / Financiamiento: Proyecto Aislamiento, diagnóstico y caracterización de virus influenza A en producción intensiva porcina nacional, 2014 Zoetis-Favet Etapa 1.
39

ARQUITECTURA DE UN SISTEMA DISTRIBUIDO PARA GESTIÓN DE EMERGENCIAS SÍSMICAS

Zambrano Vizuete, Ana María 15 October 2015 (has links)
[EN] This thesis project has a different and innovative approach to detect seismic events in real time gaining knowledge of the community through a hierarchical architecture in 3 layers: The first layer, a low-cost distributed network which takes advantage of the current huge trend; the smartphone; a multi-sensor, multi-network, multi-task device embedded into a small processing computer able to be reprogrammed, for example, in an "accelerograph" through an efficient in precision and power consumption Android application. The second layer called Intermediate Server, corresponds to a computer with sufficient hardware to handle incoming messages from users of the first layer and deduce on these samples, if a seismic peak has occurred, and if appropriate, notify in real-time to the users (smartphones) gaining extra time in making a better decision involving harm reduction, as well as economic and structural losses, and most importantly human lives losses. It considers spatial and temporal analyzes obtaining a customizable server to the specific characteristics of the area. Finally, the third layer called the Control Center is the place where all the information from the lower levels makes sense, being the leader in the post-event emergency management; it can extend to a bidirectional help: first, users (smartphones) attend to Control Center with multimedia information from their environment (comments, videos and images) thus achieving an overview of the disaster in order to efficiently manage the various aid-centers; and second, it assists users through their own smartphones, with information that a particular user unknown but the Control Center knows by other users: roads destroyed, landslides, roads offline support centers, places of danger, etc.). All validated through an extensive evaluation of each layer through seismic data obtained from the National Geophysical Institute of the National Polytechnic School in Ecuador (IGEPN), data which part of this research is based; obtaining promising and relevant results alerting until 12 seconds ahead at the epicenter, reducing false positives and this time could be increased by further afield. / [ES] Este proyecto de Tesis presenta una diferente e innovadora pro-puesta para detectar eventos sísmicos en tiempo real obteniendo conocimiento de la comunidad mediante una arquitectura jerárquica en 3 capas: La primera capa, una red de sensores de bajo costo distribuida que aprovecha el gran boom electrónico actual, el smartphone; un equipo multi-sensor, multi-red, multi-procesamiento dentro de un pequeño ordenador capaz de ser reprogramado convirtiéndolo por ejemplo, en un "acelerógrafo" por medio de una aplicación en Android eficiente en precisión y consumo de energía. La segunda capa llamada Servidor Intermedio, corresponde a un ordenador con las capacidades suficientes para gestionar la llegada de mensajes provenientes de usuarios de la primera capa y deducir con estas muestras, si ha existido un pico sísmico o no, y si es el caso, notificar en tiempo real a los usuarios (smartphones) ganando tiempo extra en la toma de una mejor decisión que implique la reducción de daños y pérdidas tanto económicas, estructurales y lo más importante, vidas humanas. Este considera análisis tanto espaciales como temporales obteniendo un servidor personalizable a las características específicas de la zona. Por último, la tercera capa llamada el Centro de Control es el lugar donde toda la información de los niveles inferiores toma sentido siendo el líder en la gestión post-evento de la emergencia; permite extender a una ayuda bidireccional: primero cada smartphone asiste a éste con información multimedia de su entorno (comentarios, videos e imágenes) logrando así una visión global del desastre, y con esta, gestionar eficientemente a los diferentes cuerpos de ayuda; y segundo asistir a los usuarios por medio de su smartphone con información que un usuario en particular desconoce y que el Centro de Control conoce por otros usuarios: Carreteras destruidas, deslaves, caminos sin conexión, centros de apoyo, lugares de peligro, etc.). Todo validado mediante una extensa evaluación de cada una de las capas con información sísmica obtenida del Instituto Geofísico Nacional de la Escuela Politécnica Nacional del Ecuador (IGEPN), lugar donde se basa parte de esta investigación, obteniendo prometedores y relevantes resultados alertando hasta con 12 segundos de antelación en el lugar del epicentro, reduciendo los falsos positivos, y pudiendo incrementar este tiempo en lugares más alejados. / [CAT] Aquest projecte de Tesi presenta una diferent i innovadora proposta per a detectar esdeveniments sísmics en temps real obtenint coneixement de la comunitat mitjançant una arquitectura jeràrquica en 3 capes: La primera capa, una xarxa de sensors de baix cost distribuïda que aprofita el gran boom electrònic actual, el l' smartphone; un equip multi-sensor, multi-xarxa, multi-processament dins d'un petit ordinador capaç de ser reprogramat convertint-ho per exemple, en un accelerògraf per mitjà d'una aplicació en Android eficient en precisió i consum d'energia. La segona capa anomenada Servidor Intermedi, correspon a un ordinador amb les capacitats suficients per a gestionar l'arribada de missatges provinents d'usuaris de la primera capa i deduir amb aquestes mostres, si ha existit un pic sísmic o no, i si és el cas, notificar en temps real als usuaris (smartphones) guanyant temps extra en la presa d'una millor decisió que implique la reducció de danys i pèrdues tant econòmiques, estructurals i el més important, vides humanes; aquest considera anàlisi tant espacials com a temporals obtenint un servidor personalitzable a les característiques específiques de la zona. Finalment, la tercera capa anomenada el Centre de Control és el lloc on tota l'informació dels nivells inferiors pren sentit sent el líder en la gestió post-esdeveniment de l'emergència; permet estendre a una ajuda bidireccional, primer cada smartphone assisteix a aquest amb l'informació multimèdia del seu entorn (comentaris, videos i imatges) aconseguint així una visió global del desastre i amb aquesta, gestionar eficientment als diferents cossos d'ajuda; i posteriorment assistir als usuaris per mitjà del seu smartphone amb informació que un usuari en particular desconeix i que el Centre de Control coneix per altres usuaris: Carreteres destruïdes, esllavissades, camins sense connexió, centres de suport, llocs de perill, etc.). Tot validat mitjançant una extensa avaluació de cadascuna de les capes amb informació sísmica obtinguda de l'Institut Geofísic Nacional de l'Escola Politècnica Nacional de l'Equador (IGEPN), lloc on es basa part d'aquesta recerca, obtenint prometedors i rellevants resultats alertant fins a amb 12 segons d'antelació en el lloc de l'epicentre, reduint els falsos positius i podent incrementar-se en llocs més allunyats. / Zambrano Vizuete, AM. (2015). ARQUITECTURA DE UN SISTEMA DISTRIBUIDO PARA GESTIÓN DE EMERGENCIAS SÍSMICAS [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/56002 / TESIS
40

Generación de imagen sintética en tiempo real basada en muestras de sonido digitalizado en el campo del arte digital

García Miragall, Carlos Manuel 02 May 2016 (has links)
[EN] The present research is framed within the field of sound visualization, which within the context of fine art examines the synthesis between image and sound, the physical and graphical representations of sound and its evolution in contemporary art. When sound is structured with an artistic purpose, as in music, in addition to physical or psycho-acoustic properties such as intensity and frequency, we perceive aesthetic and conceptual qualities. In this case, a visual interpretation should at least gather some of those physical, aesthetic and conceptual qualities, whilst the merger process should allow for innovative ideas. In this context, the research focuses on real-time image production drawn from the sound; proposing a sound visualization method based on numerical samples obtained as a result of digitisation. This method is designed for an environment in which music and image production are developed in real time, and are perceived jointly, being suitable for audiovisual live events. If we consider that a digitised sound is nothing but a set of numbers arranged in time, called samples, and an image is nothing more than a collection of numbers arranged in space, so-called pixeles, the method we propose takes the numerical values of the sound samples and then spatially locates them to create the pixels of an image. Over time it will generate a sequence of images. Depending on the employed strategy of the spatial placement of the samples, the number of samples (past and present) and the number of sound sources to be embedded, we obtain different families of visualization algorithms with their own aesthetic properties. The objective of our display method is to uncover visual interpretations that developing in real time allow to collect part of the physical, aesthetic and conceptual properties of sound, under the hypothesis that the internal structure of the sound signal contains perceptual properties that are independent of the sensory channel. In order to achieve this objective and seeking to corroborate the hypothesis, we have developed software to create images from sound samples and we have analyzed the results in the field of digital art. The proposed display method is based on the fact that from the data-processing point of view sound and moving images are sequences of numbers and therefore we simply suggest creating the images in accordance with the numbers of the sound. Through the design of case studies we have experimented with different sound compositions and with different strategies of spatial placement of the sound samples. After the analysis we have been able to conclude that even under the conditions of a very simple algorithms placement a close correlation between sound and image can be appreciated. When the sound lines divide into colour channels or images, the instruments can be clearly seen. The more periodical is the sound the more structured and organized is the resulting image, even with placement algorithms that do not strictly maintain the sequential order of the sound samples. In general, the aesthetic result can be framed within the context of abstract art, confirming the essentially abstract nature of sound. Future work will consider the possibility of expanding the subject of algorithms of spatial location, providing them with artificial intelligence, as well as of the further study of hybridization of these algorithms, the possibility of incorporating transformed maths based on the frequency domain and the extension of the investigation into more general data visualization. / [ES] Este trabajo de investigación se enmarca dentro del campo de la visualización del sonido, que en el contexto del arte explora la síntesis entre imagen y sonido, las representaciones físicas y gráficas del sonido y su evolución en el arte contemporáneo. Cuando el sonido se estructura con una finalidad artística, como en la música, además de las propiedades físicas o psicoacústicas, como intensidad y frecuencia, percibimos cualidades estéticas y conceptuales. Una interpretación visual en este caso debería al menos recoger parte de esas cualidades físicas, estéticas y conceptuales y aportar nuevas ideas obtenidas de su fusión. En este contexto, la investigación la hemos centrado en la generación en tiempo real de imagen a partir del sonido; proponiendo un método de visualización de sonido basado en las muestras numéricas, obtenidas como resultado de su digitalización. Este método está ideado para un entorno en el que la música y la generación de imágenes se desarrollan en tiempo real, y se perciben de forma conjunta, siendo adecuado para eventos audiovisuales en directo. Si tenemos en cuenta que un sonido digitalizado no es más que un conjunto de números ordenados en el tiempo, denominados muestras y una imagen no es más que un conjunto de números ordenados en el espacio, denominados pixeles, el método que proponemos toma las muestras de sonido y las ubica espacialmente generando los pixeles de la imagen. Con el paso del tiempo se irá construyendo una secuencia de imágenes. En función de la estrategia de ubicación espacial de muestras, el número de muestras (presentes y pasadas) y el número de fuentes sonoras a incorporar, obtenemos diferentes familias de algoritmos de visualización con características estéticas propias. El objetivo que perseguimos con el método de visualización es encontrar interpretaciones visuales, generadas en tiempo real, que recojan parte de las propiedades físicas, estéticas y conceptuales del sonido, bajo la hipótesis que la estructura interna de la señal sonora contiene propiedades perceptuales independientes del canal sensorial. Para alcanzar este objetivo y corroborar la hipótesis, hemos desarrollado una aplicación informática para generar las imágenes a partir de las muestras del sonido y hemos analizado los resultados dentro del campo del arte digital. El método de visualización propuesto se fundamenta en el hecho que desde el punto de vista informático el sonido y la imagen en movimiento son secuencias de números y simplemente lo que planteamos es construir las imágenes en función de los números del sonido. A través del diseño de unos casos de estudio, hemos experimentado con diferentes composiciones sonoras y con diferentes estrategias de ubicación espacial de las muestras de sonido. Del análisis efectuado hemos concluido que incluso con algoritmos de ubicación muy sencillos se aprecia la estrecha correlación que se produce entre el sonido y la imagen. Cuando se dividen las líneas de sonido en canales de color o en imágenes, se ven claramente los instrumentos. Cuanto más periódico es el sonido más estructurada y ordenada es la imagen resultante, incluso con algoritmos de ubicación que no mantienen estrictamente el orden secuencial de las muestras de sonido. En general el resultado estético lo podemos enmarcar en la corriente de arte abstracto, corroborando la naturaleza esencialmente abstracta del sonido. Como futuros trabajos se plantea profundizar más en los algoritmos de ubicación espacial, dotándolos de inteligencia artificial, en la hibridación de dichos algoritmos, en la posibilidad de incorporar transformadas matemáticas basadas en el dominio de la frecuencia, y en la extensión de la investigación a un ámbito más general de visualización de datos. / [CAT] Aquest treball de recerca s'emmarca dins el camp de la visualització del so, que en el context de l'art explora la síntesi entre imatge i so, les representacions físiques i gràfiques del so i la seua evolució en l'art contemporani. Quan el so s'estructura amb una finalitat artística, com en la música, a més de les propietats físiques o psicoacústiques, com intensitat i freqüència, percebem qualitats estètiques i conceptuals. Una interpretació visual en aquest cas hauria almenys de recollir part d'aquestes qualitats físiques, estètiques i conceptuals i aportar noves idees obtingudes de la seua fusió. En aquest context, la investigació l'hem centrat en la generació en temps real d'imatge a partir del so; proposant un mètode de visualització de so basat en les mostres numèriques, obtingudes com a resultat de la seua digitalització. Aquest mètode està ideat per a un entorn en què la música i la generació d'imatges es desenvolupen en temps real, i es perceben de forma conjunta, sent adequat per a esdeveniments audiovisuals en directe. Si tenim en compte que un so digitalitzat no és més que un conjunt de nombres ordenats en el temps, denominats mostres i una imatge no és més que un conjunt de nombres ordenats en l'espai, anomenats píxels, el mètode que proposem pren les mostres de so i les situa espacialment generant els píxels de la imatge. Amb el pas del temps s'anirà construint una seqüència d'imatges. En funció de l'estratègia d'ubicació espacial de mostres, el nombre de mostres (presents i passades) i el nombre de fonts sonores a incorporar, obtenim diferents famílies d'algorismes de visualització amb característiques estètiques pròpies. L'objectiu que perseguim amb el mètode de visualització és trobar interpretacions visuals, generades en temps real, que recullin part de les propietats físiques, estètiques i conceptuals del so, sota la hipòtesi que l'estructura interna del senyal sonor conté propietats perceptuals independents del canal sensorial . Per assolir aquest objectiu i corroborar la hipòtesi, hem desenvolupat una aplicació informàtica per a generar les imatges a partir de les mostres del so i hem analitzat els resultats dins el camp de l'art digital. El mètode de visualització proposat es fonamenta en el fet que des del punt de vista informàtic el so i la imatge en moviment són seqüències de nombres i simplement el que plantegem és construir les imatges en funció dels números del so. A través del disseny d'uns casos d'estudi, hem experimentat amb diferents composicions sonores i amb diferents estratègies d'ubicació espacial de les mostres de so. De l'anàlisi efectuada hem conclòs que fins i tot amb algoritmes d'ubicació molt senzills s'aprecia l'estreta correlació que es produeix entre el so i la imatge. Quan es divideixen les línies de so en canals de color o en imatges, es veuen clarament els instruments a través de les imatges. Com més periòdic és el so més estructurada i ordenada és la imatge resultant, fins i tot amb algoritmes d'ubicació que mantenen estrictament l'ordre seqüencial de les mostres de so. En general el resultat estètic el podem emmarcar en el corrent d'art abstracte, corroborant la naturalesa essencialment abstracta del so. Com a futurs treballs es planteja aprofundir més en els algoritmes d'ubicació espacial, dotant-los d'intel·ligència artificial, en la hibridació d'aquests algoritmes, en la possibilitat d'incorporar transformades matemàtiques basades en el domini de la freqüència, i en l'extensió de la investigació a un àmbit més general de visualització de dades. / García Miragall, CM. (2016). Generación de imagen sintética en tiempo real basada en muestras de sonido digitalizado en el campo del arte digital [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63282 / TESIS

Page generated in 0.0791 seconds