Spelling suggestions: "subject:"tecnologies"" "subject:"thecnologies""
391 |
Perfiles de rendimiento académico en la asignatura de bases de datos. Análisis mediante la metodología de los sistemas consistentes de clústersBarrabeig Dols, Miquel Àngel 08 September 2011 (has links)
Aquesta recerca desenvolupa una ampliació de la metodologia de sistemes consistents de clústers que la fan aplicable a una realitat de gran complexitat: la relació entre perfils de consulta dels materials d'un campus virtual i els rendiments acadèmics.
L'assignatura a la que s'aplica la metodologia és la de Bases de dades dels estudis d'enginyeria de l'Escola Tècnica Superior d’Enginyeria Electrònica i Informàtica de La Salle‐URL. Aquesta assignatura és molt heterogènia en continguts i competències, per la qual cosa té un flux d'avaluació complicat. Per assignar la nota final a un alumne es combinen proves de coneixement algorítmic, pràctiques, treballs o documentació sobre aspectes específics de la matèria. A més, el centre ofereix la possibilitat als alumnes que es recuperin d'ensopegades puntuals en la diversitat d'exàmens o exercicis que han de realitzar, ja que els permet presentar‐se a recuperacions en diferents moments del curs.
Per aquest motiu, es desenvolupa la metodologia dels sistemes consistents de clústers de manera heurística cercant de trobar informació rellevant. L'aplicació de la metodologia requereix d'un procediment de ‘trial and error’ fins trobar models que encaixin satisfactòriament amb la realitat estudiada. El text que s'ha publicat finalment omet moltes proves i cerques, ja que es van explorar diversos camins d'anàlisi estadística abans d'arribar a un conjunt raonable i homogeni de tècniques amb resultats positius.
L'aproximació dels sistemes consistents de clústers tan sols havia estat definida en la tesi precedent de Senmartí (2010), com a alternativa a estudis correlacionals o factorials, però feia falta considerar una ampliació de les idees exposades. En aquesta investigació s’hi introdueixen variacions, de manera que la fan susceptible de ser aplicada a situacions més complexes que es tracten mitjançant dissenys expostfacto.
De les conclusions acadèmiques en destaquem dues aportacions:
a) El concepte de clúster diana, que neix de manera natural dels sistemes consistents de clústers aplicats a aquest tipus de recerca sobre rendiment acadèmic (susceptible també de ser aplicat en investigacions de qualsevol tipus on es disposi d'una variable d'interès, ja sigui “benefici”, “vendes”, “malalts que milloren”, etc.)
b) Les directrius per a la docència en la formació superior que sorgirien del model d'ajust aconseguit. Especialment el descobriment que els estudiants amb millor rendiment acadèmic solen trobar‐se més en clústers de perfil selectiu en les consultes que no pas en clústers de perfil exhaustiu. El sistema consistent de clústers fa palesa la “cultura de consulta” als campus virtuals que desenvolupen els estudiants. / La presente investigación desarrolla una ampliación a la metodología de sistemas consistentes de clústers que la hacen aplicable a una realidad sumamente compleja: la relación entre perfiles de consulta de los materiales de un campus virtual y los rendimientos académicos.
La asignatura a la que se aplica la metodología es la de Bases de Datos de los estudios de ingeniería de la Escola Tècnica Superior d’Enginyeria Electrònica i Informàtica La Salle ‐URL. Esa asignatura es muy heterogénea en contenidos y competencias, por lo que tiene un flujo de evaluación complicado. Para asignar la nota final a un alumno se combinan pruebas de conocimiento algorítmico, prácticas, trabajos o documentación sobre aspectos específicos de la materia. Además, el centro ofrece la posibilidad a los alumnos de que se recuperen de tropiezos puntuales en la diversidad de exámenes o ejercicios que deben realizar, ya que les permite presentarse a recuperaciones en diferentes momentos del curso.
Por tal motivo, se desarrolla la metodología de los sistemas consistentes de clústers de manera heurística en búsqueda de información relevante. La aplicación de la metodología requiere de un procedimiento de trial and error hasta encontrar modelos que encajen satisfactoriamente con la realidad estudiada. El texto que se ha publicado finalmente omite muchas pruebas e intentonas, ya que se pusieron en práctica muchos otros caminos de análisis estadístico antes de llegar a un conjunto razonable y homogéneo de técnicas con resultados positivos.
La aproximación de los sistemas consistentes de clústers tan solo había sido definida en la tesis precedente de Senmartí (2010), como alternativa a estudios correlacionales o factoriales, pero hacía falta considerar una ampliación de las ideas expuestas. En esta investigación se realizan variaciones en la misma, de manera que la hacen susceptible de ser aplicada a situaciones más complejas que se tratan mediante diseños expostfacto.
De las conclusiones académicas resaltamos dos aportaciones:
a) El concepto de clúster diana, que nace de manera natural de los sistemas consistentes de clústers aplicados a este tipo de investigaciones sobre rendimiento académico (susceptible también de ser aplicado en investigaciones de cualquier tipo donde se disponga de una variable de interés, ya sea “beneficio”, “ventas”, “enfermos que mejoran”, etc.)
b) Las directrices para la docencia en la formación superior que emanan del modelo de ajuste conseguido. En especial el descubrimiento de que los estudiantes con mejor rendimiento académico suelen encontrarse más en clústers de perfil selectivo en las consultas y no, en cambio, en clústers de perfil exhaustivo. El sistema consistente de clústers retrata la “cultura de consulta” en los campus virtuales que desarrollan los estudiantes. / This research develops an extension to the methodology of clusters that make it applicable to a very complex reality: the relationship between query profiles of materials of a virtual campus and academic performance.
We applied this methodology in the learnings of Database of engineering studies Higher Technical School of Electronics and Computer d'Enginyeria La Salle ‐URL. This subject is very heterogeneous in content and skills, so it has a complicated evaluation flow which combines algorithmic knowledge tests, practical work or documentation on specific aspects of the subject in order to assign the final grade to a student. The school also offers the chance for students to recover from setbacks in the diversity of specific tests or exercises to be performed, allowing them to present to recoveries at different times of course.
Therefore, we have developed a heuristically methodology of "Systems consisting of clusters" by searching for relevant information. The application of the methodology requires a process of trial and error to find models that fit satisfactorily with the reality studied. The thesis text finally published omits many prior attempts before reaching a reasonable and uniform set of techniques with positive results.
The approach of "Systems consisting of clusters" had been defined only in the preceding Senmartí thesis (2010) as an alternative to correlational studies or factorial, but needed to consider an extension of the ideas. Our research made variations on it, so that it is capable of being applied to more complex situations that are treated by expostfacto designs.
We underline two significant contributions:
a) The concept of target cluster, which comes naturally to systems consisting of clusters applied to this type of research on academic performance (which can also be applied in investigations of any kind which have a variable interest i.e. "benefit "," sales ","patients who recover", etc.).
b) The guidelines for teaching in higher education coming from the model fit achieved. In particular the finding those students with higher academic performance are more commonly found in clusters of selective queries profile instead of clusters of a comprehensive profile. The system of clusters shows the "culture of consultation" in a virtual campus that students develop.
|
392 |
Arquitectura escolar prefabricada a CatalunyaPons Valladares, Oriol 02 March 2009 (has links)
Since 2002 over a hundred public schools have been built in Catalonia using prefabricated systems. Most of them serve as examples of a well-constructed prefabricated architecture and they have drawn the author's interest.The author chose these schools as his thesis topic, and during his research the author has found 138 sample prefabricated schools. Half of these samples were built between 2002 and 2006, as a specific project by the Catalan Education Department. But the other half had been built between 1970 and 1983, together with hundreds of other schools that had been built all over Spain according to govern deals called "Pactos de la Moncloa".Mainly, this thesis studies kindergarten and elementary centers built almost entirely out of prefabricated pieces between the years 1970 and 2006. More concretely, the author limited his study to schools built in Catalonia, which permitted a more in-depth study of the sample buildings and their systems by means of the resources at hand. Moreover, the schools built from 2006 to 2008 were discarded because they didn't improve the sample, and this was the way to get an historical view of the centers selected.This investigation started with three hypotheses: the schools included in the sample are a kind of building well-suited to prefabrication, prefabricated technology will prove to be the only one capable of producing these schools within time frame and budgetary constraints, and this prefabricated architecture has had a positive but irregular evolution.These hypotheses have been corroborated in this project, which has been developed in three main parts. First, samples are catalogued; second, samples are analyzed, and finally, the author draws his conclusions.In the process to catalogue the educational centers selected, the author carried out field research. This research allowed the author to catalogue this documentation, what has been done into three types of files: a general study of the 138 schools; a detailed catalogue of the 12 construction systems used to build these centers; and an in-depth study of the most representative school built with each construction system.Following this catalogue, the author presents his analysis, which starts with a historical review of prefabricated Spanish schools, with emphasis on the details developed in Catalan schools. In continuation, the author analyzes the samples from the same three points of view used previously while cataloging the sample schools. This methodology has been successfully applied and is considered appropriate for use in other studies of prefabricated buildings.The third section of this thesis presents the conclusions based on the analyses undertaken; from these, the author draws some recommendations for the construction of prefabricated schools in the future. Both proposals presented are based on rationality and they avoid subjective approaches to the prefabricated world. Furthermore, the author considers that the majority of his recommendations and conclusions can be applied to constructing prefabricated schools throughout the country. This research project proves that prefabricated construction systems are well-suited for schools, and their evolution has been positive but irregular. As well, the author recommends a revision be undertaken on the currently available systems in order to maximize their outcome. This redesign should consider the previous experiences and adapt these systems according to future necessities, based on teamwork by all the professionals who have worked in constructing schools with prefabricated materials.Finally, this thesis shows the qualities of a new technology for today's architecture, one closer to the values of our society: security, temporality, environmental awareness.The current crisis in construction could be an ideal moment to reflect on the need to design and build employing a more up-to-date, innovative construction technology.
|
393 |
Agent based virtual electronic patient record. From intra to inter-institution data integrationVieira Marques, Pedro Manuel 12 December 2014 (has links)
A través dels anys els sistemes d’informació mèdica (SIM) s’han desenvolupat i
desplegat, seguint agendes específiques abordant els problemes individuals. Encara
que hi ha hagut diversos esforços, encara és necessari millorar la integració
de sistemes per tal de superar les barreres de disponibilitat de les dades, sobretot
quan l’status quo revela que la majoria de les vegades els sistemes coexisteixen
com autistes.
L’assoliment d’una visió integrada i transversal de tots els registres d’un pacient
no és una tasca fàcil, ja que els patrons de producció i la utilització de les
dades en l’assistència sanitària són molt complexes i involucren actors heterogenis
i un flux de dades complexe. Aquest és un problema real, tant dins com
entre les institucions de salut que fan la tasca d’integració difícil i molt sovint ni
tan sols possible.
Els agents són entitats de programari autònomes que poden percebre el caràcter
dinàmic de l’entorn, permetent proactivitat respecte a les accions que s’adapten
millor a un usuari particular per a un determinat conjunt d’objectius. Els
agents actuen en representació dels seus usuaris, i a través de la seva activitat
social poden interactuar amb l’usuari, amb altres agents i amb el propi entorn
a través de l’intercanvi de missatges o fent ús de dispositius auxiliars. La seva
flexibilitat per integrar altres tecnologies pot millorar l’escalabilitat del sistema
i la seva tolerància a fallades, en la direcció d’una inter-operabilitat global dels
sistemes.
En aquest sentit, un enfocament multi-agent es presenta com un candidat fort
per fer front als problemes de la integració dels Sistemes d’Informació Mèdica.
El treball d’aquesta tesi neix d’aquestes premisses, i es centra en les següents
preguntes: pot la tecnologia dels agents millorar o ajudar en la integració de
sistemes d’Informació Mèdica dins d’una sola institució sanitària? Com es pot
estendre el model basat en agents per a una única institució cap a una integració
de sistemes de salut multi-institució?
Per tal d’abordar aquesta qüestió es van definir una sèrie d’objectius: Identificar
l’estat de l’art pel que fa a la utilització d’agents en el sector sanitari,
adreçar els problemes d’integració d’informació mèdica en una mateixa institució
de salut, proposar un model, especificar l’aplicació d’agents per a la integració
intra-institució de les dades i informació mèdica entre diferents institucions
de salut mitjançant l’ampliació dels models i especificacions del model
anterior a un escenari d’integració de dades entre múltiples institucions.
Les principals contribucions d’aquesta tesi són: una caracterització de com
s’està utilitzant la tecnologia d’agents per resoldre problemes en l’àmbit mèdic;
un sistema d’agents intra-institucional d’integració de dades mèdiques; una caracterització
de perfil de dades necessàries de professionals de la salut; la identificació
dels camins per a la optimització del sistema i la gestió de prioritats
basada en el tipus i la font de les dades; i un sistema basat en agents per a la
integració de dades mèdiques inter-institucionals. / Através dos anos, os Sistemas de Informação em Saúde (SIS) foram desenvolvidos
seguindo agendas específicas, muitas vezes direcionados para a resolução
de problemas particulares e de âmbito departamental. Apesar dos esforços desenvolvidos,
a realidade mostra ser ainda necessário o desenvolvimento de processos
de integração de sistemas tendo em vista superar as barreiras ainda existentes
e permitir a disponibilidade de dados de uma forma transversal. Esta
situação é particularmente relevante quando o status quo revela que os sistemas
desenvolvidos coexistem de um modo autista. Alterar este estado não é uma
tarefa fácil uma vez que os padrões de produção e uso de dados em cuidados
de saúde são complexos e envolvem atores heterogêneos. Este é um problema
real não só dentro das instituições mas também entre instituições de saúde o
que torna a tarefa de integração difícil.
Os Agentes são entidades de software autónomas capazes de se adaptar a um
ambiente dinâmico, sendo pró-ativos na identificação das ações que são mais
adequadas tendo em vista um conjunto de objectivos pré-definidos. Os Agentes
são socialmente ativos e podem interagir com o utilizador, outros agentes e com
o seu ambiente através de troca de mensagens ou fazendo uso de dispositivos
auxiliares.
Neste sentido, agindo em nome do profissional de saúde na sua busca por informação,
a abordagem baseada em Agents apresenta-se como uma forma interessante
de mitigar os problemas que dificultam a troca de dados entre sistemas
de Informação na Saúde.
O trabalho desta tese evolui a partir destas premissas, e foca-se nas seguintes
perguntas: Pode a tecnologia baseada em Agentes ajudar a integração de Sistemas
de Informação em Saúde dentro de uma única instituição de saúde? Como
pode um modelo baseado em Agentes de integração de dados dentro de uma
instituição ser estendido para um ambiente de integração entre sistemas de informação
de várias instituições?
Por forma a responder a estas questões, um conjunto de objetivos foram
definidos: Identificar o estado da arte em relação ao uso de agentes em na área
da Saúde; tendo em consideração os problemas na integração de informação
dentro de uma instituição de saúde, propor um modelo, especificação e implementação
de um sistema baseado em agentes que promova o acesso alargado
aos dados existentes; e alargando a abrangência do acesso aos dados para fora
da barreira institucional, estender o modelo e especificações para um cenário de
integração de dados entre múltiplas instituições de saúde.
As principais contribuições da tese são: a caracterização de como os Agents
são usados na resolução de problemas na área da saúde; um sistema baseado em
agentes para a integração de dados de saúde intra-instituição; uma análise de
diferentes perfis de profissionais de saúde reflectindo as diferentes necessidades
de informação em diversos cenários de prestação de cuidados; a identificação de
caminhos para a otimização do sistema e agendamento de ações com base no
tipo e fonte de dados; e um sistema baseado em agentes para a integração de
dados de saúde entre múltiplas instituições de saúde. / Through the years, Health Information Systems (HIS) have been developed and
deployed following specific agendas, addressing individual or departamental
problems. Albeit several efforts, system integration enhancements are still needed
in order to surmount data availability barriers particularly when the status quo
reveals that most of the time they coexist as autistic systems. Achieving an integrated
and transversal view of all records of one patient is not an easy task
as the patterns of data production and usage in healthcare are highly complex,
involving heterogeneous actors and an intricate data flow. This is a real issue
both within and between health institutions making the integration task difficult
and quite commonly not even possible.
Agents are autonomous software entities which can perceive the dynamic
character of the surrounding environment enabling pro-activeness regarding the
actions that are better suited to a particular user and a given set of goals. They
act on behalf of their users and by being socially active they can engage the
user, other agents and the environment through message exchanging or auxiliary
devices.
In this sense, and by acting on behalf of health professionals in their quest
for information, a Multi-Agent approach presents itself as strong candidate for
tackling problems in Health Information Systems integration.
The work on this thesis grows from these premises, and is focused on the following
questions: Can agent technology enhance or help Health Information Systems
integration within a single health institution? How can a single institution
agent based approach model be extended for multi-institution health systems
integration?
In order to address these questions, a set of objectives were defined: identify
the state of the art regarding the use of agents in Healthcare; to address health
information integration issues within a single health institution by proposing a
model, specification and implementation for agent based intra-institution health
data integration; and to address health information integration between different
health institutions by extending the models and specification of the previous
model to a multiple health institution data integration scenario.
The main contributions from this thesis are: a characterisation of how agent
technology is being used for solving problems in the healthcare domain; an
agent based system for intra-institution health data integration; a characterisation
of health professionals data needs profile; identification of paths for system
optimisation and priority management based on type and source of data; and
an agent based system for inter-institution health data integration.
|
394 |
Vulnerability Assessment for Complex Middleware Interrelationships in Distributed SystemsSerrano Latorre, Jairo D. 08 November 2013 (has links)
La rápida adaptación de la computación Cloud, ha llevado a un incremento veloz en la tasa de amenazas de las tecnologías de la información. El objetivo de estas nuevas amenazas cubren desde sistemas distribuidos a gran escala, tal como el Gran Colisionador de Partículas del CERN, hasta sistemas industriales (plantas nucleares, de electricidad, petróleo, etc.) distribuidos, es decir sistemas interconectados SCADA
El uso de herramientas automáticas para el análisis de vulnerabilidades es realmente atractivo, pero mientras que estas herramientas pueden encontrar problemas comunes en el código fuente de un programa, estas no detectan un número significativo de vulnerabilidades críticas y complejas. Además, los sistemas middleware de los sistemas distribuidos basan su seguridad en mecanismos como son la autenticación, la autorización y la delegación. A pesar que estos mecanismos han sido ampliamente estudiados en profundidad, y deberían tener control sobre los recursos, estos no son suficientes para asegurar que todos los recursos de la aplicación están protegidos.
Por lo tanto, la seguridad de los sistemas distribuidos ha sido puesta bajo la mirada vigilante de profesionales de la seguridad de la academia, industria y gobierno.
Para abordar el problema de evaluar la seguridad de sistemas middleware críticos, proponemos una nueva metodología automatizada de análisis de vulnerabilidades, llamada “Análisis de Vectores de Ataque para Complejas Interrelaciones Middleware” (AvA4cmi), la cual es capaz de indicar cuales componentes middleware deben ser analizados y por qué.
AvA4cmi está basada en la automatización de una parte de la novedosa metodología de análisis manual “Primeros Principios de Análisis de Vulnerabilidades” (FPVA), la cual ha sido usada satisfactoriamente para evaluar sistemas middleware reconocidos. Los resultados de AvA4cmi son independientes del lenguaje de programación, proveen una evaluación completa de cada vector de ataque en el middleware, y está basada en la taxonomía “Enumeración Común de Debilidades” (CWE), un catálogo formal para describir fallos de seguridad. Nuestros resultados se contrastaron contra el análisis manual de vulnerabilidades realizado al middleware CrossBroker, y nuestros resultados indicaron las debilidades más notables de los vectores de ataque del middleware gLite WMS, corroborando cuales componentes middleware deben ser analizados y por qué. / The fast adaptation of Cloud computing has led to an increased speedy rate of novel information technology threats. The targets of these new threats involve from large scale distributed system, such as the Large Hadron Collider by the CERN, up to industrial (nuclear, electricity, oil, etc.) distributed systems, i.e. SCADA networked systems.
The use of automated tools for vulnerability assessment is quite attractive, but while these tools can find common problems in a program's source code, they miss a significant number of critical and complex vulnerabilities. In addition, frequently middleware systems base their security on mechanisms such as authentication, authorization, and delegation.
While these mechanisms have been studied in depth and can control key resources, they are not enough to assure that all application's resources are safe. Therefore, security of distributed systems has been placed under the watchful eye of security practitioners in government, academia, and industry. To tackle the problem of assessing the security of critical middleware systems, we propose a new automated vulnerability assessment methodology, called Attack Vector Analyzer for Complex Middleware Interrelationships(AvA4cmi), which is able to automatically hint which middleware components should be assessed and why.
AvA4cmi is based on automatizing part of the First Principles Vulnerability Assessment, an innovative analystic-centric (manual) methodology, which has been used successfully to evaluate several known middleware systems. AvA4cmi's results are language-independent, provide a comprehensive assessment of every possible attack vector in the middleware, and it is based on the Common Weakness Enumeration (CWE) system, a formal list for describing security weaknesses. Our results are contrasted against previous manual vulnerability assessment of the CrossBroker, and hint the most remarkable weaknesses for gLite WMS middleware, and corroborate which middleware components should be assessed and why.
|
395 |
Computer Graphics and Vision Techniques for the Study of the Muscular Fiber Architecture of the MyocardiumPoveda Abans es, Fernando 20 December 2013 (has links)
Un coneixement en profunditat de l’estructura miocardíaca que enllacés la forma i la funció del cor aportaria un coneixement crucial per a estudis i procediments mèdics i de cirurgia clínica. Malgrat existeixen propostes de models clínics conceptuals de l’organització miocardíaca de les fibres, la manca d’una metodologia automàtica i objectiva ha evitat que s’arribés a un consens. Fins i tot amb l’ús de mesures objectives a partir de tècniques d’imatge moderna com la Ressonància Magnètica de Tensor de Difusió (RM TD), no s’ha arribat a cap acord pel que fa a l’arquitectura miocàrdia. La reconstrucció d’aquestes dades a partir d’streamlining s’ha establert com a una tècnica de referència per representar l’arquitectura cardíaca. Proporciona reconstruccions automàtiques i objectives a baix nivell de detall, però es queda curta a l’hora de donar interpretacions globals abstractes. En aquesta tesi presentem diverses noves tècniques de multiressolució aplicades com a metodologia que permeti produir representacions simplificades de l’arquitectura cardíaca, en combinació amb tècniques millorades d’streamlining adaptades a aquest nou entorn. D’altra banda, hem contribuït amb un marc de validació complet que va des de l’anàlisi local dels mètodes de preprocessament aplicats a les dades de la RM TD, i fins a una anàlisi global de les reconstruccions tractogràfiques en el marc de multiressolució. Aquesta validació es basa tant en la quantificació de la coherència anatòmica dels teixits musculars, com en la confiança en la reconstrucció basada en el mateix principi. Hem dut a terme experiments de reconstrucció de bases de dades de RM TD de cors canins provinents de la base de dades pública de la Universitat Johns Hopkins. El nostre enfocament produeix un conjunt reduït de trajectòries que representen les principals característiques geomètriques de l’estructura anatòmica del miocardi. Aquesta metodologia i avaluació permet l’obtenció de representacions validades de les principals característiques geomètriques de les trajectòries de les fibres, facilitant desxifrar les principals propietats de l’organització arquitectural del cor. La geometria de les fibres es preserva a través de reduccions, fet que valida el model simplificat per a la interpretació de l’arquitectura cardíaca. En l’anàlisi del rendiment de les nostres representacions gràfiques, hem detectat correlació a baix nivell de detalls de l’arquitectura miocardíaca, així com també en la conceptualització més abstracta cap a una distribució helicoïdal i contínua de les fibres del miocardi ventricular. L’anàlisi objectiva de l’arquitectura del miocardi mitjançant un mètode automàtic, incloent-hi el miocardi al complet, i utilitzant diversos nivells de complexitat en 3D, mostra una distribució contínua i helicoïdal de les fibres miocardíaques tant al ventricle dret com a l’esquerre, donant suport al model anatòmic del la banda helicoïdal ventricular miocàrdia descrita pel Dr. F. Torrent-Guasp. / Deep understanding of myocardial structure linking morphology and function of the heart would unravel crucial knowledge for medical and surgical clinical procedures and studies. Several clinically procured conceptual models of myocardial fiber organization have been proposed, but the lack of an automatic and objective methodology prevented an agreement. Even with the use of objective measures from modern imaging techniques as Diffusion Tensor Magnetic Resonance Imaging (DT-MRI), no consensus about myocardial architecture has been achieved so far. Reconstruction of these data by means of streamlining has been established as a reference technique for representing cardiac architecture. It provides automatic and objective reconstructions at low level of detail, but falls short to give abstract global interpretations. In this thesis, we present a set of novel multi-resolution techniques applied as a methodology able to produce simplified representations of cardiac architecture in combination with improved streamlining techniques tailored for this environment. Besides, we have contributed a complete validation framework that goes from local analysis of pre-processing methods applied to DT-MRI data, to global analysis of tractographic reconstructions in the multi-resolution framework. This validation is both based on the quantification of anatomical coherence of muscular tissues and reconstruction confidence based on the same principle. We performed experiments of reconstruction of unsegmented DT-MRI canine heart datasets coming from the public database of the Johns Hopkins University. Our approach produces reduced set of tracts that are representative of the main geometric features of myocardial anatomical structure. This methodology and evaluation allow the obtention of validated representations of the main geometric features of the fiber tracts, making easier to decipher the main properties of the architectural organization of the heart. Fiber geometry is preserved along reductions, which validates the simplified model for interpretation of cardiac architecture. On the analysis of the output from our graphic representations, we found correlation with low-level details of myocardial architecture, but also with the more abstract conceptualization of a continuous helical ventricular myocardial fiber array. Objective analysis of myocardial architecture by an automated method, including the entire myocardium and using several 3D levels of complexity, reveals a continuous helical myocardial fiber arrangement of both right and left ventricles, supporting the anatomical model of the helical ventricular myocardial band (HVMB) described by Dr. F. Torrent-Guasp.
|
396 |
Incremental active learning of sensorimotor models in developmental roboticsRibes Sanz, Arturo 23 March 2015 (has links)
La rápida evolución de la robótica esta promoviendo que emerjan nuevos campos relacionados con la robótica. Inspirándose en ideas provinientes de la psicología del desarrollo, la robótica del desarrollo es un nuevo campo que pretende proveer a los robots de capacidades que les permiten aprender de una manera abierta durante toda su vida.
Hay situaciones donde los ingenieros o los diseñadores no pueden prever todos los posibles problemas que un robot pueda encontrar. Tal como el número de tareas que un robot debe hacer crece, este problema se vuelve más evidente, y las soluciones de ingenería tradicionales pueden no ser completamente factibles.
En tal caso, la robótica del desarrollo proporciona una serie de principios y directrices para construir robots que tienen las herramientas cognitivas adecuadas a fin de adquirir el conocimiento necesario.
Auto-exploración, aprendizaje incremental, scaffolding social e imitación. Todas son herramientas que contribuyen a construir robots con un alto grado de autonomía. Mediante la auto-exploración internamente motivada, un robot descubre lo que su cuerpo es capaz de hacer. Las técnicas de aprendizaje incremental permite que un robot tenga conocimiento listo al instante, a partir de construir estructuras cognitivas encima de otras más viejas. El scaffolding o andamiaje social y las capacidades de imitación permiten aprovechar lo que los humanos --- u otros robots --- ya saben. De esta manera, los robots tienen metas que perseguir y aportan, o bien un uso final para las habilidades aprendidas, o bien ejemplos de cómo lograr una determinada tarea.
Esta tesis presenta un estudio de una serie de técnicas, las cuales ejemplifican cómo algunos de esos principios, aplicados a robots reales, funcionan juntos, permitiendo al robot aprender autónomamente a ejecutar una serie de tareas. También mostramos cómo el robot, aprovechándose de técnicas de aprendizaje activo e incremental, es capaz de decidir la mejor manera de explorar su entorno a fin de adquirir el conocimiento que mejor le ayuda a lograr sus objetivos. Ésto, añadido al descubrimiento autónomo de las limitaciones de su propio cuerpo, disminuye la cantidad de conocimiento especifico del dominio que es necesario poner en el diseño del sistema de aprendizaje.
Primeramente, presentamos un algoritmo de aprendizaje incremental para Modelos de Mixtura de Gaussianas aplicado al problema de aprendizaje sensorimotor. Implementado en un robot móvil, el objetivo es adquirir un modelo que es capaz de realizar predicciones sobre los estados sensoriales futuros. Este modelo predictivo es reutilizado como substrato representacional, el cual sirve para categorizar y anticipar situaciones tales como la colisión contra un objeto.
Después de un periodo extendido de aprendizaje, y habiendo encontrado situaciones diferentes, observamos que los modelos adquiridos se terminan siendo bastante grandes. Sin embargo, nos dimos cuenta que, en un momento dado, solo una pequeña porcion del mismo es utilizada. Además, estas areas son utilizadas consistentemente por un periodo relativamente largo de tiempo. Presentamos una extensión para el algoritmo de Regresión basado en Mixturas de Gaussianas, el cual aprovecha este hecho a fin de reducir el coste computacional de la inferencia.
Las técnicas aquí presentadas fueron también aplicadas en un problema diferente y más commplejo: la imitación de una secuencia de notas musicales proporcionadas por un humano. Estas son producidas por un objeto musical virtual que es utilizado por un robot humanoide. El robot no solo aprende a utilizar este objeto, sino que también aprende sobre las limitaciones de su propio cuerpo. Ésto le permite entender mejor qué puede hacer y cómo puede hacerlo, subrayando la importancia de la influencia que el hecho de tener cuerpo tiene en la interacción del robot con su entorno y el tipo de estructuras cognitivas que se forman como consecuencia de este tipo de interacción. / The rapid evolution of robotics is promoting new robotics related research fields to emerge. Taking insights from developmental psychology, developmental robotics is a new field which aims to endow robots with capabilities that enable them to life-long learning in an open-ended way.
There are situations where engineers or designers cannot foresee all the possible problems a robot may encounter. As the number of tasks that a robot must do grows, this problem becomes more evident and traditional engineering solutions may not be entirely feasible.
In that case, developmental robotics provides a series of principles and guidelines to construct robots which have the adequate cognitive tools in order to acquire the necessary knowledge.
Self-exploration, incremental learning, social scaffolding or imitation. All are tools which contribute to build robots with a high degree of autonomy.
By means of internally motivated self-exploration, a robot discovers what its body is able to do. Incremental learning techniques enable a robot to have ready-to-use knowledge by building new cognitive structures on top of old ones. Social scaffolding and imitation capabilities allows taking advantage of what humans --- or other robots --- already know. In this way, robots have goals to pursue and provide either an end use of learned skills or examples on how to accomplish a given task.
This thesis presents a study of a series of techniques which exemplify how some of those principles, applied to real robots, work together, enabling the robot to autonomously learn to perform a series of tasks.
We also show how the robot, by taking advantage of active and incremental learning, is able to decide the best way to explore its environment in order to acquire knowledge that best helps in accomplishing its goals. This, in addition to the autonomous discovery of its own body limitations, leverages the amount of domain specific knowledge that needs to be put in the design of the learning system.
First and foremost, we present an incremental learning algorithm for Gaussian Mixture Models applied to the problem of sensorimotor learning. Implemented in a mobile robot, the objective is to acquire a model which is capable of making predictions about future sensory states. This predictive model is reused as a representation substrate which serves to categorize and anticipate situations such as the collision with an object.
After an extended period of learning, and having encountered different situations, we observed that the acquired models become quite large. However, we realized that, at any given time, only small portions of it are used. Furthermore, these areas are consistently used over relatively long periods of time. We present an extension to the standard Gaussian Mixture Regression algorithm which takes advantage of this fact in order to reduce the computational cost of inference.
The techniques herein presented were also applied in a different and more complex problem: the imitation of a sequence of musical notes provided by a human. Those are produced by a virtual musical object which is used by a humanoid robot. The robot not only learns to use this object, but also learns about its own body limitations. This enables it to better understand what it is able to do and how, highlighting the importance of embodiment in the interaction of a robot with its environment and the kind of cognitive structures that are formed as a consequence of this type of interaction.
|
397 |
Statistical framework for terminating evolutionary algorithms at their steady stateRoche Valles, David 24 July 2015 (has links)
El objetivo de esta tesis es de determinar la calidad de las condiciones de parada existentes para terminar un Algoritmo Evolutivo cuando llegue a su un estado estacionario.
Un Algoritmo Evolutivo es una técnica iterativa basada en poblaciones de individuos e inspirada en las reglas de la evolución natural para encontrar (o explorar) el conjunto de puntos, en un espacio de búsqueda, que mejor se ajustan a una situación dada de acuerdo con una función de coste. Delante de cualquier problema, en prácticamente todas las situaciones, se necesita explorar un conjunto de posibles soluciones donde cada una de ellas se puede evaluar. Por tanto, los Algoritmos Evolutivos se pueden entender como una técnica de optimización si tenemos una función de coste que determine la bondad del ajuste.
Como para cualquier técnica iterativa, es esencial disponer de un criterio de parada.
En el caso de los métodos de optimización, el algoritmo habría de parase en el momento en el que ha llegado a su estado estacionario y por tanto ya no se podrán mejorar los resultados. Determinar la fiabilidad de las condiciones de parada de un algoritmo evolutivo es de gran importancia. Un criterio de parada débil o equivocado puede afectar negativamente tanto al esfuerzo computacional como al resultado final.
En esta tesis introducimos un marco estadístico para determinar cuándo una condición de parada es capaz de parar el Algoritmo Evolutivo en el momento en el que llegue a su estado estacionario. Por una parte, se presenta una aproximación numérica a los estados estacionarios para detectar el momento en el cual la población de individuos del algoritmo evolutivo ha perdido su diversidad. Esta aproximación se ha aplicado a diferentes métodos de computación evolutiva que están basados en la diversidad y a una selección de funciones que cubren las propiedades más relevantes respecto a la convergencia de los algoritmos evolutivos. Los experimentos muestran que la condición presentada funciona independientemente de la dimensión del espacio de búsqueda y del perfil de la función de coste. También muestran que el método Differential Evolution (DE) figura como el mejor paradigma entre los algoritmos evolutivos para aplicar el método de parada. Por otra parte, utilizamos un modelo de regresión lineal para determinar los requisitos que aseguran que una medida derivada de la población evolutiva del algoritmo evolutivo está relacionada con la distancia al óptimo en el espacio de búsqueda. El marco teórico presentado se analiza para diferentes funciones de un conjunto de funciones marco y para dos criterios de parada estándar basados en la mejora del valor de la función de coste y en la distribución en el espacio de búsqueda de la población de individuos para cada método de los algoritmos evolutivos. Los resultados validan el marco estadístico presentado como una buena herramienta para determinar la capacidad de una medida para parar el algoritmo evolutivo y selecciona la medida basada en la distribución de la población como la más conveniente para aplicaciones en casos reales. / The goal of this Thesis is assessing the quality of existing stopping conditions for terminating Evolutionary Algorithms at its steady state.
An Evolutionary Algorithm (EA) is an iterative population based technique based on natural evolution rules principles to find (or explore) in a given search space the set of point that best fits a given real situation according to a cost function. When a problem is presented in practically all situations, an exploration of a set of possible solutions is needed and for each possible solution its goodness is valuable. EAs can be viewed as an optimization technique if a function is given.
As any iterative technique, a stop criterion for terminating EA numeric implementation is mandatory.
In the case of optimization methods, the algorithm should stop at the time it has reached a steady state so it can not improve results anymore. Assessing the reliability of termination conditions for evolutionary algorithms is of prime importance. A wrong or weak stop criterion can negatively affect both the computational effort and the final result.
In this Thesis, we introduce a statistical framework for assessing whether a termination condition is able to stop EA at its steady state. In one hand a numeric approximation to steady states to detect the point in which EA population has lost its diversity has been presented for EA termination. This approximation has been applied to different EA paradigms based on diversity and a selection of functions covering the properties most relevant for EA convergence. Experiments show that our condition works regardless of the search space dimension and function landscape and Differential Evolution (DE) arises as the best EA paradigm. On the other hand, we use a regression model in order to determine the requirements ensuring that a measure derived from EA evolving population is related to the distance to the optimum in x-space. Our theoretical framework is analyzed across several benchmark test functions and two standard termination criteria based on function improvement in function space and EA population x-space distribution for the DE paradigm. Results validate our statistical framework as a powerful tool for determining the capability of a measure for terminating EA and select the x-space distribution as the best-suited for accurately stopping DE in real-world applications.
|
398 |
Exploiting spatio-temporal correlations for energy management policiesMartínez Huerta, Borja 05 May 2015 (has links)
Estamos viviendo una nueva era, caracterizada por la omnipresencia de dispositivos inteligentes conectados a la red. En esta era, la emergencia de la llamada Internet of Things (IoT) está transformando profundamente la industria a nivel global, así como la propia vida de los seres humanos. El grado de integración alcanzado, así como su conectividad a través de internet, ha permitido que millones de dispositivos se conecten e interactúen a una escala sin precedentes. Esta diseminación generalizada de dispositivos con potencial de procesado, combinada a su capacidad sensora y comunicativa, está incrementando de forma extraordinaria el volumen de datos capturados.
Como consecuencia de la expansión de la IoT, el número de dispositivos conectados esta aumentando exponencialmente y pronto ha de generar un problema de escalabilidad, problema muy ligado a su dependencia energética. Un buen número de dispositivos quedarán integrados en el entorno, en lugares inaccesibles o cuya conexión por cable suponga un coste elevado, convirtiendo la energía en un recurso muy preciado. De hecho, el cambio de baterías de miles de dispositivos es simplemente inconcebible. El coste de mantenimiento y, en general, de cualquier intervención, puede suponer un severo freno al avance de este nuevo paradigma. Por tanto, uno de los retos para hacer sostenible la masiva expansión de dispositivos sensores inalámbricos es reducir su coste en términos energéticos. Claramente, se requieren nuevos métodos para afrontar este cambio.
Las correlaciones espacio-temporales son esenciales en muchos campos y, por tanto, es bastante razonable suponer que la información de contexto pueda ser también explotada en este paradigma. Partiendo de esta hipótesis, el presenta trabajo ofrece una aproximación sistemática para definir Políticas de Eficiencia Energética para dispositivos sensores inalámbricos, basada en el análisis de las Correlaciones Espacio-Temporales.
Sobre esta idea, esta tesis se estructura en dos partes. En primer lugar se aborda la necesidad de un perfilado energético suficientemente preciso para sensores inalámbricos. Para este fin, se ha formalizado un modelo general de consumo que permite perfilar la gestión de energía en dispositivos integrados. Los resultados obtenidos remarcan la importancia de entender los ciclos de actividad involucrados en las tareas que ejecutan este tipo de dispositivos.
La segunda parte, desarrollada en base a éste modelo, demuestra el potencial que ofrece el análisis de correlaciones espacio-temporales como herramienta para definir políticas eficientes de gestión. Esta hipótesis se ha investigado desde tres perspectivas diferentes: a) captación de la energía del entorno, b) compresión de la información y c) análisis de datos de contexto. El análisis realizado y las políticas definidas desde estas tres perspectivas proporcionan importantes reducciones tanto en términos energéticos como de coste.
Como conclusión, todos los métodos estudiados han demostrado su validez en la definición y validación de políticas energéticas. Las estrategias propuestas pueden ser de gran ayuda para los ingenieros de aplicación, ya que permiten parametrizar las plataformas y explorar sus diseños en las primeras fases de desarrollo. De esta forma se puede reducir el tiempo de acceso al mercado, a la vez que se asegura un balance óptimo entre coste, funcionalidad y tiempo de vida. / We are living in a new era, which is characterized by the omnipresence of smart, networked devices. The developing Internet of Things is profoundly transforming both global industry and human lives. Hardware integration, along with the ability to seamlessly communicate over the internet, has allowed millions of embedded objects to connect and interact on an unprecedented scale. The ubiquitous presence of embedded computing devices, combined with their sensing and communicating capabilities, is increasing the amounts of data captured on a massive scale.
As a result of the expanding IoT, the number of connected devices is increasing exponentially and will soon generate a problem of scalability, related mostly to their energy dependence. Many devices will be embedded in the environment, in places that are inaccessible or expensive to connect with wires, making them resource-constrained. Most importantly, battery replacements for thousands of devices are inconceivable. Maintenance and intervention costs can limit the advance of this new paradigm. Therefore, one of the challenges in ensuring the massive expansion of wireless sensing devices is reducing their cost in terms of energy. Clearly, novel methods are required for addressing this change.
Spatio-temporal correlations are essential in many different fields. Thus, it is quite reasonable to assume that contextual information can be exploited within this emerging paradigm. Under this hypothesis, the present study provides a systematic approach to defining Energy Efficiency Policies for Wireless Sensor Devices, based on the analysis of Spatio-Temporal Correlations.
To this end, the present work is structured in two parts. First, we address the necessity of an accurate energy profiling model for wireless sensing devices. We have formalized a generic consumption model to profile the energy utilization of low-power embedded devices. The obtained results stress the importance of understanding the cycles of operation involved in embedded tasks. The second part of this dissertation demonstrates the applicability of spatio-temporal correlation analysis as a tool for defining energy efficiency policies. This hypothesis has been investigated from three different perspectives: a) energy harvesting, b) data compression and c) contextual data analysis. The correct analysis and policy definition from these three perspectives provides important energy and cost reduction opportunities.
In conclusion, all the studied methods proved to be effective for defining and validating energy policies. The proposed strategies help designers to parameterize and customize platforms for their application during the design phases, and hence the time-to-market of new products is reduced while an optimal tradeoff is ensured among cost, functionality and life expectancy.
|
399 |
Open, Reusable and Configurable Multi Agent Systems: A Knowledge Modelling ApproachGómez Martínez, Mario 15 June 2004 (has links)
Aunque los Sistemas Multiagente se suponen abiertos, la mayor parte de la investigación realizada se ha centrado en sistemas cerrados, diseñados por un sólo equipo de desarrollo, sobre un entorno homogéneo, y un único dominio.Esta tesis pretende avanzar hacia la consecución de Sistemas Multiagente abiertos. Nuestros esfuerzos se han centrado en desarrollar un marco de trabajo para Sistemas Multiagente que permita maximizar la reutilización de agentes en diferentes dominios, y soporte la formación de equipos bajo demanda, satisfaciendo los requerimientos de cada problema particular.Por un lado, este trabajo investiga el uso de Métodos de Solución de Problemas para describir las capacidades de los agentes con el objetivo de mejorar su reutilización. Hemos tenido que adaptar el modelo para trabajar con aspectos específicos de los agentes, como el lenguaje de comunicación y los protocolos de interacción.Por otro lado, esta tesis propone un nuevo modelo para el Proceso de Solución de Problemas Cooperativo, el cual introduce una fase de configuración previa a la formación de un equipo. El proceso de configuración se encarga de obtener un diseño de equipo, expresado en términos de las tareas a resolver, las capacidades a utilizar, y el conocimiento del dominio disponible.El marco de trabajo desarrollado ha sido puesto a prueba mediante la implementación de una infraestructura para agentes. Esta infraestructura proporciona un nivel de mediación social para los proveedores y clientes del sistema de resolución de problemas, sin imponer una arquitectura particular para los agentes participantes, ni un modelo mental o lógico para explicar la cooperación.Las contribuciones de este trabajo adoptan la forma de un marco de trabajo multi-capa, desde los conceptos más abstractos a los más concretos, para terminar con la implementación de una aplicación particular basada en agentes de información cooperativos. / Although Multi Agent Systems are supposed to be open systems, most of the initial research has focused on closed systems, which are designed by one developer team for one homogeneous environment, and one single domain.This thesis aims to advance some steps towards the realization of the open Multi Agent Systems vision. Our work has been materialized into a framework for developing Multi Agent Systems that maximize the reuse of agent capabilities across multiple application domains, and support the automatic, on-demand configuration of agent teams according to stated problem requirements.On the one hand, this work explores the feasibility of the Problem Solving Methods approach to describe agent capabilities in a way that maximizes their reuse. However, since Problem Solving Methods are not designed for agents, we have had to adapt them to deal with agent specific concepts concerning the agent communication languages and interaction protocols.One the other hand, this thesis proposes a new model of the Cooperative Problem Solving process that introduces a Knowledge Configuration stage previous to the Team Formation stage. The Knowledge Configuration process performs a bottom-up design of a team in term of the tasks to be solved, the capabilities required, and the domain knowledge available.The statements made herein are endorsed by the implementation of an agent infrastructure that has been tested in practice. This infrastructure has been developed according to the electronic institutions formalism to specifying open agent societies. This infrastructure provides a social mediation layer for both requesters and providers of capabilities, without imposing neither an agent architecture, nor an attitudinal theory of cooperation.The contributions of our work are presented as a multilayered framework, going from the more abstract aspects, to the more concrete, implementation dependent aspects, concluding with the implementation of the agent infrastructure and a particular application example for cooperative information agents.
|
400 |
On rank and kernel of perfect codesVillanueva, M. (Mercè) 19 October 2001 (has links)
No description available.
|
Page generated in 0.0355 seconds