• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 170
  • 89
  • 30
  • 1
  • Tagged with
  • 290
  • 248
  • 188
  • 184
  • 183
  • 183
  • 183
  • 183
  • 183
  • 183
  • 93
  • 93
  • 92
  • 91
  • 89
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Privacy-preserving and data utility in graph mining

Casas Roma, Jordi 24 November 2014 (has links)
En los últimos años, ha sido puesto a disposición del público una gran cantidad de los datos con formato de grafo. Incrustado en estos datos hay información privada acerca de los usuarios que aparecen en ella. Por lo tanto, los propietarios de datos deben respetar la privacidad de los usuarios antes de liberar los conjuntos de datos a terceros. En este escenario, los procesos de anonimización se convierten en un proceso muy importante. Sin embargo, los procesos de anonimización introducen, generalmente, algún tipo de ruido en los datos anónimos y también en sus resultados en procesos de minería de datos. Generalmente, cuanto mayor la privacidad, mayor será el ruido. Por lo tanto, la utilidad de los datos es un factor importante a tener en cuenta en los procesos de anonimización. El equilibrio necesario entre la privacidad de datos y utilidad de éstos puede mejorar mediante el uso de medidas y métricas para guiar el proceso de anonimización, de tal forma que se minimice la pérdida de información. En esta tesis hemos trabajo los campos de la preservación de la privacidad del usuario en las redes sociales y la utilidad y calidad de los datos publicados. Un compromiso entre ambos campos es un punto crítico para lograr buenos métodos de anonimato, que permitan mejorar los posteriores procesos de minería de datos. Parte de esta tesis se ha centrado en la utilidad de los datos y la pérdida de información. En primer lugar, se ha estudiado la relación entre las medidas de pérdida de información genéricas y las específicas basadas en clustering, con el fin de evaluar si las medidas genéricas de pérdida de información son indicativas de la utilidad de los datos para los procesos de minería de datos posteriores. Hemos encontrado una fuerte correlación entre algunas medidas genéricas de pérdida de información (average distance, betweenness centrality, closeness centrality, edge intersection, clustering coefficient y transitivity) y el índice de precisión en los resultados de varios algoritmos de clustering, lo que demuestra que estas medidas son capaces de predecir el perturbación introducida en los datos anónimos. En segundo lugar, se han presentado dos medidas para reducir la pérdida de información en los procesos de modificación de grafos. La primera, Edge neighbourhood centrality, se basa en el flujo de información de a través de la vecindad a distancia 1 de una arista específica. El segundo se basa en el core number sequence y permite conservar mejor la estructura subyacente, mejorando la utilidad de los datos. Hemos demostrado que ambos métodos son capaces de preservar las aristas más importantes del grafo, manteniendo mejor las propiedades básicas estructurales y espectrales. El otro tema importante de esta tesis ha sido los métodos de preservación de la privacidad. Hemos presentado nuestro algoritmo de base aleatoria, que utiliza el concepto de Edge neighbourhood centrality para guiar el proceso de modificación preservando los bordes más importantes del grafo, logrando una menor pérdida de información y una mayor utilidad de los datos. Por último, se han desarrollado dos algoritmos diferentes para el k-anonimato en los grafos. En primer lugar, se ha presentado un algoritmo basado en la computación evolutiva. Aunque este método nos permite cumplir el nivel de privacidad deseado, presenta dos inconvenientes: la pérdida de información es bastante grande en algunas propiedades estructurales del grafo y no es lo suficientemente rápido para trabajar con grandes redes. Por lo tanto, un segundo algoritmo se ha presentado, que utiliza el micro-agregación univariante para anonimizar la secuencia de grados. Este método es cuasi-óptimo y se traduce en una menor pérdida de información y una mejor utilidad de los datos. / In recent years, an explosive increase of graph-formatted data has been made publicly available. Embedded within this data there is private information about users who appear in it. Therefore, data owners must respect the privacy of users before releasing datasets to third parties. In this scenario, anonymization processes become an important concern. However, anonymization processes usually introduce some kind of noise in the anonymous data, altering the data and also their results on graph mining processes. Generally, the higher the privacy, the larger the noise. Thus, data utility is an important factor to consider in anonymization processes. The necessary trade-off between data privacy and data utility can be reached by using measures and metrics to lead the anonymization process to minimize the information loss, and therefore, to maximize the data utility. In this thesis we have covered the fields of user's privacy-preserving in social networks and the utility and quality of the released data. A trade-off between both fields is a critical point to achieve good anonymization methods for the subsequent graph mining processes. Part of this thesis has focused on data utility and information loss. Firstly, we have studied the relation between the generic information loss measures and the clustering-specific ones, in order to evaluate whether the generic information loss measures are indicative of the usefulness of the data for subsequent data mining processes. We have found strong correlation between some generic information loss measures (average distance, betweenness centrality, closeness centrality, edge intersection, clustering coefficient and transitivity) and the precision index over the results of several clustering algorithms, demonstrating that these measures are able to predict the perturbation introduced in anonymous data. Secondly, two measures to reduce the information loss on graph modification processes have been presented. The first one, Edge neighbourhood centrality, is based on information flow throw 1-neighbourhood of a specific edge in the graph. The second one is based on the core number sequence and it preserves better the underlying graph structure, retaining more data utility. By an extensive experimental set up, we have demonstrated that both methods are able to preserve the most important edges in the network, keeping the basic structural and spectral properties close to the original ones. The other important topic of this thesis has been privacy-preserving methods. We have presented our random-based algorithm, which utilizes the concept of Edge neighbourhood centrality to drive the edge modification process to better preserve the most important edges in the graph, achieving lower information loss and higher data utility on the released data. Our method obtains a better trade-off between data utility and data privacy than other methods. Finally, two different approaches for k-degree anonymity on graphs have been developed. First, an algorithm based on evolutionary computing has been presented and tested on different small and medium real networks. Although this method allows us to fulfil the desired privacy level, it presents two main drawbacks: the information loss is quite large in some graph structural properties and it is not fast enough to work with large networks. Therefore, a second algorithm has been presented, which uses the univariate micro-aggregation to anonymize the degree sequence and reduce the distance from the original one. This method is quasi-optimal and it results in lower information loss and better data utility.
192

Segmentation et indexation d’objets complexes dans les images de bandes déssinées

Rigaud, Christophe 11 December 2014 (has links)
Nacido en el siglo 19, los historietas se utilizan para la expresión de ideas a través de secuencias de imágenes, a menudo en combinación con el texto y los gráficos. El cómic esta considerado como un noveno arte, arte secuencial, salida con los avances en la impresión y la Internet en todo el mundo en periódicos, libros y revistas. Hoy en día, el creciente desarrollo de las nuevas tecnologías y la World Wide Web (el lienzo Internet) da lugar a nuevas formas de expresión que lleva el papel a disfrutar de la libertad del mundo virtual. Sin embargo, el cómic tradicional persiste y es un patrimonio cultural importante en muchos países. A diferencia de la música, el cine o la literatura clásica, que aún no ha encontrado son homólogos en el mundo digital. El uso de tecnologías de la información y de las telecomunicaciones podría facilitar la exploración de bibliotecas en línea, la traducción y acelerar su permiso de exportación a la mayor lectura (enriquecimiento de los contenidos durante la reproducción, a la carta y personalizado ) o permitir la escucha de texto y efectos de sonido para los estudiantes con discapacidad visual o allumnos. Agencias de la preservación del patrimonio cultural como CIBDI en Angouleme (Centro Internacional del Cómic y de imagen), el Museo Internacional de Manga en Kioto (Kyoto International Manga Museum) o el sitio digitalcomicmuseum.com de los Estados Unidos han digitalizado cientos de álbumes, algunos son públicos. Pese a la creciente cuota de mercado de los cómics digitales en los países desarrollados, poca investigación se ha llevado a cabo hasta la fecha para desarrollar estos contenidos a través de las nuevas tecnologías. El análisis de documentos es un tema de investigación que se ocupa de este problema. Una de estas características es la dependencia del tipo de documento que a menudo requiere un tratamiento específico. El proceso de creación de un cómic es exclusivo de este arte que puede ser considerado como un nicho en el campo de análisis de documentos. En realidad, este nicho está en la intersección de varios documentos de investigación que cuenta consiste en un fondo complejo, contenido semi-estructurada y variada. La intersección de varias investigaciones combina sus dificultades. En esta tesis de doctorado, se describen e ilustran los diversos retos científicos de esta investigación con el fin de dar al lector toda la evidencia acerca de los últimos avances científicos en el campo, así como las barreras científicas actuales. Proponemos tres enfoques de análisis de imagen cómica compuesta por diferentes tratamientos que mejora algunos trabajos previos y otros que son nuevas vías de exploración. El primer enfoque se denomina \secuencial" porque los contenidos de la imagen se describe gradualmente y de manera intuitiva. Simples artículos como cajas y texto y las burbujas se extraen primero y luego siguen la cola de las burbujas y los personajes de los cuadros de acuerdo a la dirección apuntada por las colas. El segundo método ofrece extracciones independientes unos de otros a fin de evitar la propagación del error entre aplicaciones, que es la principal desventaja del primer método. En este enfoque, los diversos extractores se pueden utilizar en paralelo, ya que no tienen la interdependencia. Otros elementos como la clasificación del tipo de burbuja y el reconocimiento de texto están asociados. El tercer enfoque introduce un sistema basado en un conocimiento a priori del contenido de las imágenes de dibujos animados que interactúa entre los tratamientos bajos y altos niveles para construir una descripción semántica de la imagen. Proponemos un sistema experto consiste en un sistema de inferencia y dos modelos de la forma de ontologías, un modelo para el campo de los cómics y el otro para modelar el procesamiento de imágenes asociado. Este sistema experto combina las ventajas de ambos enfoques anteriores y proporciona un alto nivel de descripción semántica puede incluir información como el orden de lectura de los cuadros, el texto y las burbujas, burbujas relaciones entre habladas y sus altavoces y el distinción entre los caracteres. Además, se describen los primeros cómics públicas basadas en imágenes y la realidad sobre el terreno que incluye que se han propuesto a la literatura científica, la información espacial y semántica. Un experimento de todos los métodos propuestos y una comparación de los enfoques de la literatura también se detallan en este manuscrito. / Born in the 19th century, comics is a visual medium used to express ideas via images, often combined with text or visual information. It is considered as a sequential art, spread worldwide initially using newspapers, books and magazines. Nowadays, the development of the new technologies and the World Wide Web is giving birth to a new form of paperless comics that takes advantage of the virtual world freedom. However, traditional comics still represent an important cultural heritage in many countries. They have not yet received the same level of attention as music, cinema or literature about their adaptation to the digital format. Using information technologies with classic comics would facilitate the exploration of digital libraries, faster theirs translations, allow augmented reading, speech playback for the visually impaired etc. Heritage museums such as the CIBDI (French acronym for International City of Comic books and Images), the Kyoto International Manga Museum and the digitalcomicmuseum. com have already digitized several thousands of comic albums that some are now in the public domain. Despite the expending market place of digital comics, few researches have been carried out to take advantage of the added value provided by these new media. Document analysis is the corresponding eld of research which is relatively application-dependent. The design process of comics is so typical that their automated analysis may be seen as a niche research eld within document analysis, at the intersection of complex background, semi-structured and mixed content documents. Being at the intersection of several fields combine their dificulties. In this thesis, we review, highlight and illustrate the challenges in order to give to the reader a good overview about the last research progress in this eld and the current issues. We propose three diferent approaches for comic book image analysis relying on previous work and novelties. The first approach is called \sequential" because the image content is described in an intuitive way, from simple to complex elements using previously extracted elements to guide further processing. Simple elements such as panel text and balloon are extracted first, followed by the balloon tail and then the comic character position in the panel from the direction pointed by the tail. The second approach addresses independent information extraction to recover the main drawback of the rst approach: error propagation. This second method is called \independent" because it is composed by several specific extractors for each elements of the image content. Those extractors can be used in parallel, without needing previous extraction. Extra processing such as balloon type classification and text recognition are also covered. The third approach introduces a knowledge-driven system that combines low and high level processing to build a scalable system of comics image understanding. We built an expert system composed by an inference engine and two models, one for comics domain and an other one for image processing, stored in an ontology. This expert system combines the benefits of the two first approaches and enables high level semantic description such as the reading order of panels and text, the relations between the speech balloons and their speakers and the comic character identification. Apart from that, in this thesis we have provided the first public comics image dataset and ground truth to the community along with an overall experimental comparison of all the proposed methods and some of the state-of-the-art methods.
193

Análisis de la apertura comercial en México mediante modelos multisectoriales, 1970-93.

Chapa Cantú, Joana Cecilia 10 June 2003 (has links)
En esta tesis se analiza y calcula el impacto de la apertura comercial mexicana y el efecto marginal del TLCAN sobre la estructura productiva, niveles de actividad y redistribución de recursos. Esta política es analizada en un entorno de interdependencia general, implementando tres modelos multisectoriales y estáticos: Modelo Input-Output, Modelo Lineal SAM o de Multiplicadores Contables y un Modelo de Equilibrio General Computable (MEGC). El Modelo Input-Ouput permite calcular indicadores de dependencia productiva, empleo asociado al comercio exterior y el impacto en precios para 72 actividades económicas y se estudia su conducta en el periodo 1970-93. Para introducir el flujo circular de la renta al análisis, se construye una matriz de contabilidad social (SAM) que replica la economía mexicana de 1993. En este caso, la agricultura es separada en: granos y otros productos agrícolas. La relevancia de esta subdivisión estriba en que el sector granos contiene productos "sensibles" que, en el marco del TLCAN, no serán comerciados libremente hasta el 2009. Con base a la SAM se formula el Modelo de Multiplicadores Contables que determina el poder generador de renta nacional para 73 ramas de actividad económica. Por otro lado, una versión agregada de 9 sectores es utilizada para calibrar el MEGC.Los resultados sugieren que las economías mexicana y estadounidense se han hecho más complementarias. Están interrelacionadas por el intercambio de productos intermedios y finales, pero principalmente, algunos sectores mexicanos se han especializado en la exportación de productos maquilados. De esta manera, indirectamente, México provee de mano de obra barata a Estados Unidos. En este sentido, la industria maquiladora ha jugado un papel protagónico en el cambio estructura de la economía mexicana. A esta actividad productiva están asociados los más altos efectos multiplicadores en empleo y precios. Aunque su impacto sobre la renta nacional es relevante, éste es menor que el de otros sectores porque la maquila no abastece sus inputs intermedios en el mercado mexicano, todos ellos los importa temporalmente del exterior.Así también, el MEGC determina que el impacto en los precios relativos juega a favor de la manufactura con alto efecto expansión sobre el empleo (incluye a la maquila), permitiendo observar como el trabajo y capital se desplazan a este sector.La agricultura y ganadería tienen alto efecto sobre la renta nacional, pero bajo impacto en precios cuando los aranceles son eliminados. Esto se debe a que nuestro análisis no considera las barreras no arancelarias que son muy importantes en estos sectores.Sin embargo, explotamos la utilidad del MEGC y simulamos que la producción doméstica de estos sectores era completamente sustituida por importaciones. De esta manera, el modelo simula el ajuste en la economía mexicana: si los granos nacionales son negativamente afectados por el TLCAN o si la ganadería sigue mostrando la conducta observada en el periodo posterior a la puesta en marcha del acuerdo norteamericano (en el periodo 1993-99, sus importaciones se incrementaron 51.3% y sus exportaciones se redujeron un 31.9%).Los ejercicios sugieren que el efecto de la ganadería es más relevante que el de los granos, ya que en 1993, la ganadería era considerada una manufactura intermedia, compraba y vendía inputs intermedios con mayor intensidad que el sector promedio.
194

La localización de la actividad económica en Chile, 1890-1973. Su impacto de largo plazo

Badia Miró, Marc 24 November 2008 (has links)
DE LA TESIS:En el presente trabajo se analiza, desde distintos puntos de vista, la evolución de la localización de la actividad económica en Chile, desde el fin de la Guerra del Pacífico, hacia 1890, hasta el fin del gobierno de la Unidad Popular, en 1973. En la primera parte se analiza la evolución de la localización del comercio interior y exterior de las provincias de Chile y como evoluciona con el impacto de los distintos ciclos mineros. En una segunda parte, la tesis se centra en el estudio de la localización de la industria en Chile y sus determinantes, entre fines del siglo XIX y la década de los 60. Una tercera parte realiza una reconstrucción del PIB provincial de Chile entre fines del siglo XIX y 1970. Esta reconstrucción permite realizar distintos ejercicios sobre convergencia económica, evolución de los niveles de ingreso de las provincias en el largo plazo además del análisis de la existencia de una posible relación entre el crecimiento económico y la dispersión de la actividad económica en el largo plazo.
195

El comercio internacional textil en 1913: Un análisis del comercio intraindustrial

Carreras Marín, Ana 19 September 2008 (has links)
DE LA TESIS:La tesis doctoral que se presenta consiste en el estudio del comercio intraindustrial textil en 1913. En ella se trata el sector textil en sentido amplio, tanto desde el punto de vista de las fibras y productos textiles (incluyendo tanto a la industria del algodón como a la de la seda, el yute o la confección, de una manera conjunta) como desde el punto de vista de la cobertura geográfica, bajo un enfoque multilateral donde se contemplan tanto los países exportadores, como los importadores. La investigación sigue una aproximación básicamente cuantitativa en la que se combinan distintas metodologías de análisis, desde la cartografía de las discrepancias estadísticas de la fuente de información, hasta las estimaciones econométricas de las causas del comercio intraindustrial, pasando por un análisis descriptivo de la naturaleza y composición de los mercados textiles internacionales.Finalmente, a través del sector textil y con los datos comerciales de 1913, se contrastan algunas hipótesis de los modelos del comercio internacional que se encuentran en abierta discusión hoy en día, aportando nueva evidencia empírica a dichos debates teóricos.
196

Aprovisionament de carn a la ciutat de Barcelona (Segles XIV i XV), L'

Banegas López, Ramón Agustín 30 November 2007 (has links)
L'objectiu que vol assolir la tesi és el coneixement del funcionament del mercat de la carn que comercialitzaven a Barcelona exclusivament els carnissers, que era únicament la carn fresca provinent de quadrúpedes domèstics; alhora es volen analitzar les relacions de col.laboració i conflicte entre els membres d'aquest ofici i el Consell barceloní durant un període llarg, com són els segles XIV i XV, amb la voluntat de poder treure a la llum els principals trets evolutius d'aquest mercat. Entre l'ampli ventall de fons disponibles per analitzar l'aprovisionament de carn a la ciutat de Barcelona s'han escollit les fonts municipals. L'elecció de les fonts municipals com a base de la nostra recerca es deu a què ens semblaven les més adients per poder veure la relació entre el municipi i els carnissers, relació fonamental per entendre el mercat de la carn en una societat fortament intervencionista com era la baix medieval; a més, aquestes fonts ens proporcionaven el marc normatiu en el qual es mou el mercat de la carn, base imprescindible per a futures recerques dins aquest mateix tema.A l'hora d'analitzar les zones proveïdores de bestiar s'han estudiat de manera independent els diferents tipus d'animals. El bestiar més documentat és l'oví i el cabrum, el qual tenia diferents procedències: una primera zona era el ponent i el centre de Catalunya, la segona zona important d'aprovisionament es trobava al sud de Catalunya, nord del Regne de València i sud de l'Aragó i, finalmente, la tercera zona d'aprovisionament eren les actuals comarques pirinenques de la Cerdanya, el Capcir i el Ripollés. Una vegada comprat el bestiar s'ha de portar fins la ciutat de Barcelona. El trajecte era llarg i dur i, molt sovint, sorgien problemes amb les autoritats de les zones per on passaven els ramats. L'actitud dels consellers, sempre al costat dels carnisser en els conflictes que mantenien amb les autoritats locals de Catalunya o de fora del Principat, canvia amb els conflictes que aquests mateix professionals tenen en el territori de Barcelona. A 'entorn de Barcelona els carnissers havien de pasturar el seu bestiar mentre esperaven el moment per entrar-lo i escorxar-lo a les carnisseries de la ciutat; aquí les pastures que necessitaven els carnissers entraven en conflicte amb els espais conreats i les pastures privades, que pertanyien en bona part a la classe patrícia de Barcelona, els ciutadans honrats, que monopolitzaven el govern de la ciutat, cosa que va generar gran quantitat de conflictes. L'intervencionisme municipal es fa especialmente patent en el procés de reglamentación i control de la venda de carn a la ciutat. El govern municipal, al llarg dels segles XIX i XV, anirà creant un corpus legislatiu per regular cada vegada amb més detall el mercat de la carn, el qual anirà evolucionant al llarg dels dos segles. Des del punt de vista econòmic el mercat de la carn també va estar força intervingut pel municipio, que va intentar mantenir sempre abastada la ciutat de carn a un preu baix, sense renunciar als ingressos de la imposición, instaurada definitivamente a mitjans del segle XIV. Per arribar a aquests objectius, els consellers van recórrer a diferents tècniques com ara la coacció, la signature de contractes, la donación de préstecs sense interès, etc.En definitiva, com s'ha explicat al començament, el mercat de la carn a Barcelona és un mercat força complex on incidiesen gran quantitat de factors, però on hi ha dos clars protagonistas: els carnissers de la ciutat, que dominen el mercat durant els dos segles, i el govern municipal, que amb el seu intervencionisme influirà profundament al desenvolupament del propi mercat. / The thesis aim has been to analyze the whole process of meat trade in a great city of Late Middle Ages like Barcelona. To obtain this aim the whole documentation of the "Arxiu Històric de la Ciutat de Barcelona" (AHCB) has been analyzed in a systematic way. We have chosen the documentation of this archive because the "Consell de Cent" played an important role in the meat market. Along the research we have verified that the meat market was a complex market where there were a lot of agents, but where there were two principal actors: the butchers and the city ministers. The butchers monopolized the whole commercial process of the meat, they bought the animals in the fairs and cattle markets, their shepherds drove their herds to the city and they sold the meat in their stalls. At the other side, the city council, who intervened a lot in all the process of the meat trade. Along all the process there was a lot of conflicts and this two actors had opposite or coincidental interests along the different moments of the mercantile process. So, the butchers and the city council agreed in the defence of the tolls and pasture city privileges against the Catalonia's feudal Lords when the herds come to the city from the cattle markets. But they disagreed absolutely when the animals had problems with the lands owners in the city surrounding pastures, when the city ministers were fixing the meat prices and taxes, or at the moment when the city government was making the hygiene legislation of the meat selling.
197

Cooperación entre la aplicación y el kernel para la planificación de flujos, en sistemas multiprocesadores, como soporte al paralelismo

Gil Gómez, Maria Luisa 04 July 1994 (has links)
El objetivo de nuestro trabajo ha sido defender la tesis de que, para los entornos de trabajos actuales, multiprocesador, una opción válida para obtener el mejor rendimiento de las aplicaciones paralelas de propósito general es conseguir que el kernel y la propia aplicación cooperen en la gestión de los recursos.El estudio abarca a la aplicación en su conjunto, con todas sus partes, en cuya ejecución el sistema operativo toma una parte activa y decisoria. Y nos hemos centrado en aplicaciones paralelas multiflujo de granularidad media.Hemos diseñado y realizado un entorno de trabajo basándonos en la tecnología microker-nel en el que ofrecemos un nuevo sistema de planificación.A partir de políticas de planificación de particionado de la máquina, hemos aislado a las aplicaciones, unas de otras, y hemos habilitado que en cada partición el usuario pueda decidir qué política de planificación y qué quantums y recálculo de prioridades quiere. Con ello conseguimos, por un lado, que cada aplicación pueda ajustar la planificación que mejor rendimiento le suponga.Por otro, que no queden afectadas unas por el funcionamiento de otras.A partir de la abstracción de procesador virtual, dotamos a la aplicación de la capacidad de gestionar la planificación de sus propios flujos, mediante la nueva abstracción "contexto de eje-cución" (eXc) que el kernel ofrece a la aplicación para que pueda ejecutar un flujo en cada uno de los procesadores físicos que le ha asignado. En este nuevo entorno el kernel puede comunicar de manera asíncrona con la aplicación, transmitiéndole los eventos que puedan afectar a ésta para decidir una replanificación en sus flujos. En concreto, el bloqueo/desbloqueo de flujos, la asigna-ción/desasignación de procesadores físicos y un temporizador para poder disponer del dispositivo reloj a nivel de aplicación. Se han resuelto los problemas de desbanque de flujos dentro de exclusiones mutuas gracias a unas nuevas primitivas de sincronización que evitan el abrazo mortal.Con nuestra realización de paso de gestión de flujos del kernel a la aplicación, además de aumentar el throughput en un orden de magnitud, ganamos tiempo de ejecución para otros flujos de la aplicación.La plataforma de desarrollo ha sido un multiprocesador de memoria compartida sobre el que hemos modificado el microkernel Mach 3.0, con el entorno operativo OSF/1 MK y la librería de threads de usuario CThreads, modificada igualmente para enriquecer y potenciar la parte de planificación de flujos. / The goal of this thesis is to show that it is possible to achieve a better parallel application perfor-mance in multiprocessor operating environments when the kernel and the application cooperate in the resource management.The study includes the whole application, in addition to the components whose manage-ment is mainly supported by the operating system. The selected applications for study are medium grain parallelism applications (ie. servers, subsystems, virtual machines,...).Our work includes a design and implementation of an operating environment in the micro-kernel technology with a new scheduling approach.We have implemented space sharing scheduling policies to isolate applications insidemachine partitions; each partition has its own scheduling policy and the user can modify priorities, quantums and policies in his application partition. This approach allows each application to adjust and tune its own scheduling to achieve the better performance it would. Also it permits to protect applications from the other applications faults.We propose a new abstraction: the eXecution context (eXc) as the processor virtual object that allows the application to manage its threads. The eXc are offered by the kernel to the application to run threads in the physical processors that the kernel gives to the application.The kernel communicates to the application, in an asynchronous way, the events thatcould lead to a rescheduling of its threads. This events are: thread blocked/unblocked, physical processor allocated/deallocated and the clock, to have the possibility of timeouts at application level.New synchronization primitives prevent the deadlock problem when there may be a thread preemption in a mutex area.Our implementation overcomes throughput in one order of magnitude and also has a gain in the execution time for the other application threads.This work has been implemented in a shared memory multiprocessor. We have modified the Mach 3.0 microkernel, the OSF/1 MK operating environment and the CThreads library. This library has been also modified to offer more complete scheduling policies and synchronization mechanisms.
198

Adaptive control for wearable robots in human-centered rehabilitation tasks

Rajasekaran, Vijaykumar 22 December 2015 (has links)
Robotic rehabilitation therapies have been improving by providing the needed assistance to the patient, in a human-centered environment, and also helping the therapist to choose the necessary procedure. This thesis presents an adaptive "Assistance-as-needed" strategy which adheres to the specific needs of the patient and with the inputs from the therapist, whenever needed. The exertion of assistive and responsive behavior of the lower limb wearable robot is dedicated for the rehabilitation of incomplete spinal cord injury (SCI) patients. The main objective is to propose and evaluate an adaptive control model on a wearable robot, assisting the user and adhering to their needs, with no or less combination of external devices. The adaptation must be more interactive to understand the user needs and their volitional orders. Similarly, by using the existing muscular strength, in incomplete SCI patients, as a motivation to pursue the movement and assist them, only when needed. The adaptive behavior of the wearable robot is proposed by monitoring the interaction and movement of the user. This adaptation is achieved by modulating the stiffness of the exoskeleton in function of joint parameters, such as positions and interaction torques. These joint parameters are measured from the user independently and then used to update the new stiffness value. The adaptive algorithm performs with no need of external sensors, making it simple in terms of usage. In terms of rehabilitation, it is also desirable to be compatible with combination of assistive devices such as muscle stimulation, neural activity (BMI) and body balance (Wii), to deliver a user friendly and effective therapy. Combination of two control approaches has been employed, to improve the efficiency of the adaptive control model and was evaluated using a wearable lower limb exoskeleton device, H1. The control approaches, Hierarchical and Task based approach have been used to assist the patient as needed and simultaneously motivate the patient to pursue the therapy. Hierarchical approach facilitates combination of multiple devices to deliver an effective therapy by categorizing the control architecture in two layers, Low level and High level control. Task-based approaches engage in each task individually and allow the possibility to combine them at any point of time. It is also necessary to provide an interaction based approach to ensure the complete involvement of the user and for an effective therapy. By means of this dissertation, a task based adaptive control is proposed, in function of human-orthosis interaction, which is applied on a hierarchical control scheme. This control scheme is employed in a wearable robot, with the intention to be applied or accommodated to different pathologies, with its adaptive capabilities. The adaptive control model for gait assistance provides a comprehensive solution through a single implementation: Adaptation inside a gait cycle, continuous support through gait training and in real time. The performance of this control model has been evaluated with healthy subjects, as a preliminary study, and with paraplegic patients. Results of the healthy subjects showed a significant change in the pattern of the interaction torques, elucidating a change in the effort and adaptation to the user movement. In case of patients, the adaptation showed a significant improvement in the joint performance (flexion/extension range) and change in interaction torques. The change in interaction torques (positive to negative) reflects the active participation of the patient, which also explained the adaptive performance. The patients also reported that the movement of the exoskeleton is flexible and the walking patterns were similar to their own distinct patterns. The presented work is performed as part of the project HYPER, funded by Ministerio de Ciencia y Innovación, Spain. (CSD2009 - 00067 CONSOLIDER INGENIO / Las terapias de rehabilitación robóticas han sido mejoradas gracias a la inclusión de la asistencia bajo demanda, adaptada a las variaciones de las necesidades del paciente, así como a la inclusión de la ayuda al terapeuta en la elección del procedimiento necesario. Esta tesis presenta una estrategia adaptativa de asistencia bajo demanda, la cual se ajusta a las necesidades específicas del paciente junto a las aportaciones del terapeuta siempre que sea necesario. El esfuerzo del comportamiento asistencial y receptivo del robot personal portátil para extremidades inferiores está dedicado a la rehabilitación de pacientes con lesión de la médula espinal (LME) incompleta. El objetivo principal es proponer y evaluar un modelo de control adaptativo en un robot portátil, ayudando al usuario y cumpliendo con sus necesidades, en ausencia o con reducción de dispositivos externos. La adaptación debe ser más interactiva para entender las necesidades del usuario y sus intenciones u órdenes volitivas. De modo similar, usando la fuerza muscular existente (en pacientes con LME incompleta) como motivación para lograr el movimiento y asistirles solo cuando sea necesario. El comportamiento adaptativo del robot portátil se propone mediante la monitorización de la interacción y movimiento del usuario. Esta adaptación conjunta se consigue modulando la rigidez en función de los parámetros de la articulación, tales como posiciones y pares de torsión. Dichos parámetros se miden del usuario de forma independiente y posteriormente se usan para actualizar el nuevo valor de la rigidez. El desempeño del algoritmo adaptativo no requiere de sensores externos, lo que favorece la simplicidad de su uso. Para una adecuada rehabilitación, efectiva y accesible para el usuario, es necesaria la compatibilidad con diversos mecanismos de asistencia tales como estimulación muscular, actividad neuronal y equilibrio corporal. Para mejorar la eficiencia del modelo de control adaptativo se ha empleado una combinación de dos enfoques de control, y para su evaluación se ha utilizado un exoesqueleto robótico H1. Los enfoques de control Jerárquico y de Tarea se han utilizado para ayudar al usuario según sea necesario, y al mismo tiempo motivarle para continuar el tratamiento. Enfoque jerárquico facilita la combinación de múltiples dispositivos para ofrecer un tratamiento eficaz mediante la categorización de la arquitectura de control en dos niveles : el control de bajo nivel y de alto nivel. Los enfoques basados en tareas involucran a la persona en cada tarea individual, y ofrecen la posibilidad de combinarlas en cualquier momento. También es necesario proporcionar un enfoque basado en la interacción con el usuario, para asegurar su participación y lograr así una terapia eficaz. Mediante esta tesis, proponemos un control adaptativo basado en tareas y en función de la interacción persona-ortesis, que se aplica en un esquema de control jerárquico. Este esquema de control se emplea en un robot portátil, con la intención de ser aplicado o acomodado a diferentes patologías, con sus capacidades de adaptación. El modelo de control adaptativo propuesto proporciona una solución integral a través de una única aplicación: adaptación dentro de la marcha y apoyo continúo a través de ejercicios de movilidad en tiempo real. El rendimiento del modelo se ha evaluado en sujetos sanos según un estudio preliminar, y posteriormente también en pacientes parapléjicos. Los resultados en sujetos sanos mostraron un cambio significativo en el patrón de los pares de interacción, elucidando un cambio en la energía y la adaptación al movimiento del usuario. En el caso de los pacientes, la adaptación mostró una mejora significativa en la actuación conjunta (rango de flexión / extensión) y el cambio en pares de interacción. El cambio activo en pares de interacción (positivo a negativo) refleja la participación activa del paciente, lo que también explica el comportamiento adaptativo.
199

Millores en un crioconcentrador per plaques de pel.licula descendent : dissenys de nous prototips per liquids industrials i residuals

Rodríguez Barraguer, Vicenç 22 December 2015 (has links)
One of the techniques for separating soluble solids in an aqueous solution, is for freezing of water that contains, which is known as cryoconcentration It relates to systems of crystallization of ice by layer (Flesland, 1995) because the principle is the same, although the model presented is significantly different, both in terms of geometry and the equipment that incorporates. The experimental work, the basis of this thesis, has gone through two machines cryoconcentration, semi - industrial, known as first and second prototype, where have been developed tests with food liquids wine, orange juice and coffee; use of second products industrial liquids and liquids waste to reduce water and subsequent treatment of concentrated. They have been expressly built, one after the other, as a result of the improvements that have been incorporated to watching trials and with the aim of achieving, in the second prototype,a cryoconcentrator of film descendant, semi-industrial, to between 35 and 40 l of liquid, more effective, in energy efficiency and make good concentrates. Explains the key points of the machine, as for example, how to get a good liquid distribution to be focus and having a good evaporation - condensation in the entire cooling system. Everything revolves to make concentrated quality, which can give added value to the food liquids, this method of descending film, with the application of the techniques of cold. In fact, intends to reveal that this method, based on physical principles, is better than classical distillation for heat, if you want to get concentrated rich in original content. In the preparation of fruit juices, it has the advantage of preserving their vitamins and flavors. In a commercial orange juice 100% fruit juice got a 45% concentrate juice fruit rest water with trace amounts of 1% fruit juice without degradation of aromas. And in the category of coffee, was achieved in the process of concentrate, reduce it by up to 55% of concentrated coffee the rest water with trace amounts of 1% without losing the aromas and taste. It also wants to extend to industrial fluids as needed to focus. It is at this point, in the treatment of industrial and sewage waste, where it has insisted more than experimentation, by the good results obtained and as evidence that in many areas they have not finished making. For the specific case of a multinational cosmetics, sample which was, went from having a content of dissolved solids, with cod = 27500 ppm, to a cod = 27 ppm water. The last phase of this work wants to reflect experience with the experimentation carried out and that also serve to extrapolate and sizing designs of other models, based on the same technology. The technique is quite simple and innovative in its application; working at atmospheric pressure and temperatures that rarely move from - 5 ° C, providing a concentration more advantageous, and as an alternative to the classical distillation for heat. A brief review of existing models, known by different names, which are used to make concentrated, to complete with an innovative model and energy saving considered of freeze concentration by plates of film descendant, through cold generation systems, which can be 'tailor-made' is made. The work has a history of work and experimentation, made in the past six years, with the two real prototypes, which have been improving day by day, where all tests and experimental trials have been done. It does not leave out that one of the objectives is also to make a cold efficient to improving the COP and system with a view to incorporating in the industrial sector You can say contributions highlighted in this thesis are: Resolution of the uniform distribution of liquid concentrate on cold plates. Application of this process of concentration for industrial waste / Una de les tècniques per separar sòlids solubles d'una solució aquosa, és per congelació de l'aigua que conté, practica que es coneix com crioconcentració. Es relaciona amb sistemes de cristal.lització de gel per capa, Flesland,1995 perquè el principi és el mateix encara que el model que es presenta és significativament diferent, tant per la geometria com pels equips que incorpora. El treball experimental, fonament d'aquesta tesis, ha passat per dues màquines crioconcentradores semiindustrials, denominades primer i segon prototip on s'han desenvolupat proves amb líquids alimentaris, vi, suc de taronja i cafè; en líquids industrials, aprofitament de segons productes i en líquids residuals per reduir l'aigua i posterior tractament del concentrat. Han estat expressament construïdes, una després de l'altre, com conseqüència de les millores que s'han anat incorporant en veure els assajos i amb l'objectiu de aconseguir, en el segon prototip, un crioconcentrador per pel·lícula descendent, semi industrial per tractar entre 35 i 40 l de líquid, més eficaç, en rendiment energètic i en fer bons concentrats. S'expliquen els punts claus de la màquina, com per exemple com aconseguir un bon repartiment del fluid que es vol concentrar i que hagi una bona evaporació condensació en tot el sistema frigorífic. Tot gira a fer concentrats de qualitat, que pugin donar un valor afegit als líquids alimentaris, per aquest mètode de pel·lícula descendent, amb l'aplicació de les tècniques conegudes de fred. De fet es pretén revelar que aquest mètode, basat en principis físics, és millor que la destil·lació clàssica per calor, si es vol obtenir concentrats rics en els seus continguts originals. En l'elaboració de sucs de fruites, te l'avantatge de preservar els seus sabors i vitamines. En un suc de taronja comercial 100% suc fruita es va obtenir un concentrat del 45% suc fruita resta aigua amb traces de suc fruita del 1% sense degradació d'aromes. I en l'especialitat del cafè, es va aconseguir en el procés del concentrat, reduir-lo al 55% de cafè concentrat, resta aigua amb traces del 1% sense perdre els aromes ni el sabor. També es vol estendre'l als líquids industrials que es necessitin concentrar .És en aquest punt, del tractament de líquids industrials i residuals, on s'ha insistit més de l'experimentació, pels bons resultats obtinguts i per ser proves que en molts àmbits no s'han acabat de fer. Pel cas concret d'una multinacional de cosmètica, la mostra que es va tractar, va passar de tenir un DQO=27500 ppm, fins un aigua amb DQO=27 ppm. La darrera fase d'aquest treball vol reflectir l'experiència amb l'experimentació feta i que serveixi a més, per poder extrapolar i dimensionar dissenys d'altres models, basats en la mateixa tecnologia. Es treballa a pressió atmosfèrica i temperatures de -5ºC, oferint una concentració més avantatjosa i com alternativa a la destil·lació clàssica per calor. Es fa un breu repàs dels models existents, coneguts amb diferents nomenclatures, que s`utilitzen per fer concentrats, per completar amb un model innovador i d'estalvi energètic considerat, de crioconcentració per plaques de pel·lícula descendent, sistemes de generació de fred, que es poden fer a mida. El treball té un recorregut de feina i experimentació, fet en els darrers sis anys, amb els dos prototips reals, que s'han anat millorant dia a dia, on s'han fet totes les proves i assajos experimentals. No es deixa de banda que també un dels objectius és fer un sistema de fred eficient millorant el COP i amb vistes d'incorporar-lo al sector industrial. Es pot dir que les aportacions destacades en aquesta tesis són: Resolució de la distribució uniforme del líquid a concentrar en les plaques fredes. Aplicació d'aquest procés de concentració per a residus industrials / Una de las técnicas para separar los sólidos solubles de una solución acuosa, es por congelación del agua que contiene, práctica que se conoce como crioconcentració. Se relaciona con sistemas de cristalización de hielo por capa Flesland, 1995 porque el principio es el mismo, aunque el modelo que se presenta es significativamente diferente, tanto en términos de geometría como por el equipamiento que incorpora. El trabajo experimental, la base de esta tesis, ha pasado por dos máquinas crioconcentradoras, semi-industriales, denominadas primer y segundo prototipo, donde se han desarrollado pruebas con líquidos alimentarios,vino, zumo de naranja y café; en líquidos industriales, aprovechamiento de segundos productos y en líquidos residuales para reducir el agua y posterior tratamiento de concentrado. Han sido expresamente construidas, una después de la otra, como resultado de las mejoras que se han incorporado viendo los ensayos y con el objetivo de alcanzar, en el segundo prototipo, un crioconcentrador de película descendiente, semi-industrial, para tratar entre 35 y 40 l de líquido, más eficaz, en eficiencia energética y en hacer buenos concentrados. Se explican los puntos clave de la máquina, como por ejemplo, cómo conseguir una buena distribución de líquido que se desea concentrar y que tenga una buena evaporación condensación en todo el sistema frigorífico. Todo gira en hacer concentrados de calidad, que puedan dar un valor añadido a los líquidos alimentarios, por este método de película descendiente, con la aplicación de las técnicas conocidas de frío. De hecho, se pretende revelar que este método, basado en principios físicos, es mejor que la clásica destilación por calor, si se quiere obtener concentrados ricos en sus contenidos originales. En la elaboración de zumos de frutas, tiene la ventaja de preservar sus vitaminas y sabores. En un zumo de naranja comercial 100% zumo de fruta se consiguió un concentrado del 45% zumo de fruta resto agua con trazas de zumo de fruta del 1% sin degradación de aromas. Y en la categoría de café se consiguió en el proceso de concentrado, reducirlo hasta el 55% de café concentrado resto agua con trazas del 1% sin perder los aromas ni el sabor. También se quiere extender a fluidos industriales que se necesiten concentrar. Es en este punto, del tratamiento de residuos industriales y residuales, donde se ha insistido más de la experimentación, por los buenos resultados obtenidos y por ser pruebas que en muchas ámbitos no se han acabado de hacer. Para el caso específico de una multinacional cosmética, la muestra que se trató, pasó de tener un DQO = 27500 ppm, hasta un agua con DQO = 27 ppm, La última fase de este trabajo quiere reflejar la experiencia con la experimentación realizada y que sirva además, para poder extrapolar y dimensionar diseños de otros modelos, basados en la misma tecnología. Se trabaja a presión atmosférica y temperaturas de -5 º C, ofreciendo una concentración más ventajosa, y como alternativa a la clásica destilación por calor. Se hace una breve revisión de los modelos existentes, conocidos con diferentes nomenclaturas, que se utilizan para hacer concentrados, para completar con un modelo innovador y de ahorro energético considerado, de crioconcentración por placas de película descendiente, mediante sistemas de generación de frío, que se pueden hacer a medida. El trabajo tiene una trayectoria de trabajo y experimentación, hecho en los últimos seis años, con los dos prototipos reales, que han ido mejorando día a día, donde se han hecho todas las pruebas y ensayos experimentales. No se deja de lado que también uno de los objetivos es hacer un sistema de frío eficiente mejorando el COP y con miras a incorporar en el sector industrial. Se puede decir que las contribuciones destacadas en esta tesis son: Resolución de la distribución uniforme del líquido concentrado en las placas frías. Aplicación de este proceso de concentración para residuos industriales
200

Desarrollo de un sistema de doble paso compacto y de bajo coste para la evaluación de la calidad óptica y la difusión intraocular

Sanabria, Ferran 02 December 2015 (has links)
The purpose of this PhD thesis was to design, implement and validate a low cost compact system based on the double-pass I technique in order to evaluate the viability of its use in the future in optical instrumentation to obtain optical quality and light diffusior estimations. First of all we measured the optical quality of an electro-optical liquid lens to prove its usefulness in the measurement of the eye's optical quality. We built a simple single-pass setup composed by a laser diode (LD), an electro-opticalliquid lens (EOLL) and a CCD as recording device. The results obtained in this study show the validity of this type of lenses for corrections of spherical refractive errors. In second place we studied the correction of spherical refractive errors in double-pass configurations by means of the electro­ optical liquid lens (EOLL). We measured the optical performance of the spherical corrector in terms of optical power, pupil size and optical quality verifying that they all fit the requirements to be applied to double-pass systems. We also evaluated the performance of the proposed method in patients by comparison with a conventional double-pass system using a Badal optometer (OQAS instrument) and we conclude that the EOLL is suitable to be used in a double-pass system for a spherical correction. In third place we implemented and validated a superluminiscent led (SLED) as light source in the double-pass system . The study showed that the SLED used during the experimentation did not have sufficiently low coherence to break the speckle noise on its own, but showed a good performance when being combined with other methods for speckle reduction. In fourth place we implemented and validated a CMOS camera as recorder device in the double-pass system. We studied the performance of a CMOS camera by comparison with the results obtained with a CCD. The study showed a high correlation between the results obtained with the CCD and CMOS camera, demonstrating in this manner suitability of this type of sensors (CMOS) for application in the field of visual optics. Taking into account the results on the light source, the spherical refractive error corrector, and the recording device, the final configuration of the system includes a SLD light source, a corrector based on EOLLs and a CMOS camera. The experimental double-pass system has been compared with a commercially available double-pass system (OQAS). All the tests showed the good agreement between both systems, which suggest that the system here presented may be used for estimations of the ocular optical quality and scattering measurements. We conclude that the proposed experimental setup, including as innovations the CMOS camera and the EOLL spherical corrector, improves in terms of size and cost a conventional system with a performance comparable to that observes in commercially available devices. / Esta tesis doctoral ha tenido como objetivo fundamental el diseño, implementación y validación de un sistema compacto y de bajo coste basado en la técnica del doble paso que nos permita obtener estimaciones de calidad óptica en general y de luz difusa en particular, dirigido a una posible futura utilización en la práctica clínica. Para ello se ha partido del esquema de doble paso utilizado en el instrumento oftalmológico OQAS y se ha estudiado y validado posibles mejoras, tanto en grado de integración como en coste, que han garantizado las mismas o superiores prestaciones. En primer lugar se procedió a la validación de una lente electro-óptica como sistema de corrección de la refracción esférica, este dispositivo sustituye al tradicional sistema Badal compuesto por dos lentes cuya distancia relativa puede variarse, lo cual permite la corrección de la refracción esférica. Se analizó y demostró la validez de este nuevo tipo de lentes electro-ópticas para la corrección de refracción esférica. En segundo lugar se procedió al diseño y la implementación de un sistema de doble paso utilizando la lente electro-óptica para la compensaci6n de refracción esférica. Una vez se comprobó que la lente electro-óptica reunía los requisitos de calidad óptica, se procedió a implementar el sistema de doble paso que incorpora dicha lente en substitución del sistema Badal. Se verificó y demostró que el sistema con la lente electro-óptica tiene prestaciones similares o mejores que el clásico sistema de doble paso. En tercer lugar se implementó y validó el sistema de iluminación basado en una fuente LED superluminiscente (SLED). Se incorporó como fuente de luz al sistema de doble paso un SLED y se analizó el grado de ruido speckle en las imágenes obtenidas. El estudio determinó que el SLED utilizado no tenía la suficiente baja coherencia como para romper el ruido speckle por sí mismo, pero si mostró un buen rendimiento cuando se combina con otros métodos para la reducción del speckle. En cuarto lugar se procedió a implementar y validar el sistema de registro basado en una tecnología CMOS. Se incorporó una cámara CMOS como nuevo dispositivo de registro al sistema de doble paso. El estudio realizado puso de manifiesto una alta correlación existente entre los resultados obtenidos con la cámara CMOS y la CCD, de manera que quedó demostrado la idoneidad de este tipo de sensores (CMOS) para la aplicación en montajes experimentales de óptica visual y para la implementación de instrumentación asociada a este campo. Ya por último se procedió a la validación del sistema de doble paso resultante. En función de los resultados obtenidos se implementó el sistema de doble paso definitivo siguiendo criterios de simplicidad y coste, este sistema incorpora un compensador de refracción esférica basado en una lente electro-óptica, un diodo laser y una cámara CMOS. Para la validación de los resultados obtenidos y como equipo comercial de referencia se utilizó el instrumento clínico OQAS. Los resultados obtenidos en el estudio demostraron una alta correlación entre el sistema experimental y el instrumento OQAS. Así pues y a la vista de los resultados obtenidos se concluye que a partir de los diferentes estudios realizados en esta tesis doctoral se ha demostrado que el sistema de doble paso presentado basado en una lente electro-óptica, un diodo laser y una cámara CMOS mejora en cuanto a dimensiones y coste el de un sistema convencional.

Page generated in 0.0725 seconds