• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 33
  • 9
  • 6
  • Tagged with
  • 48
  • 48
  • 46
  • 46
  • 45
  • 45
  • 16
  • 11
  • 9
  • 9
  • 9
  • 8
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Advanced Statistical Methods for Cytogenetic Radiation Biodosimetry

Higueras Hernáez, Manuel 16 October 2015 (has links)
El objetivo original de esta tesis, titulada ‘Métodos Estadísticos Avanzados para Radiación Citogenética Radioactiva’ era ’desarrollar nuevas soluciones para el análisis estadístico de datos citogenéticos’ y la cuestión tratada en este proyecto era ‘cuál es la mejor manera de cuantificar correctamente el daño citogenético inducido por la radiación en complejos escenarios de exposición a la radiación, donde se reconoce que las técnicas actuales son insuficientes’. El proyecto fue creado con el objetivo de proveer estimaciones citogenéticas de dosis con mayor precisión estadística llevadas a cabo para el servicio de dosimetría biológica de la Public Health England y para el propósito de la investigación científica, los cuales informarán después correspondientemente la evaluación de riesgo de la salud para protección radiológica. Los objetivos específicos eran: 1. Identificación de las limitaciones en las metodologías citogenéticas existentes (además de las previamente identificadas); 2. Identificación de escenarios que plantean dificultades para la biodosimetría citogenética práctica, para los cuales los avances de los métodos estadísticos deben ofrecer soluciones; 3. Identificación y comparación de soluciones que han sido previamente desarrolladas/propuestas en la literatura y su futuro desarrollo/aplicación; 4. Desarrollo y pruebas de nuevas soluciones en los marcos Bayesianos y clásicos, y la implementación de éstos para su aplicación en la biodosimetría citogenética (por ejemplo en Java); 5. Publicación de los resultados. Este proyecto ha llevado a cabo el objetivo principal y los específicos a través seis publicaciones científicas originales de investigación en métodos estadísticos para dosimetría biológica. Los principales resultados de cada una de estas publicaciones son los siguientes: Una revisión de la literatura para identificar escenarios de exposición a la radiación que sugieren trabajo futuro en modelos Bayesianos y presenta un ejemplo práctico; Desarrollo de técnicas para solucionar las limitaciones identificadas, en particular nuevos modelos de regresión inversa e irradiación de cuerpo parcial; Aplicación de estos nuevos métodos en existentes y nuevos datos para diferentes escenarios y Desarrollo de dos paquetes de R-project, uno para dar soporte al uso de la nueva metodología y otro para el manejo de la familia de Distribuciones de Hermite Generalizada. / The original aim of this thesis, entitled ‘Advanced Statistical Methods for Cytogenetic Radiation Biodosimetry’ was to ‘develop novel solutions for statistical analysis of cytogenetic data’ and the question that was to be addressed by this project was ‘how best to correctly quantify cytogenetic damage that is induced by radiation in complex scenarios of radiation exposure, where it is recognised that the current techniques are insufficient.’ The project was created with the aim of providing increased statistical accuracy of cytogenetic dose estimates carried out both for the Public Health England's biological dosimetry service and for research purposes, which will correspondingly further inform health risk assessment for radiation protection. The specific objectives were: 1. Identification of further limitations in the existing cytogenetic methodologies (in addition to those that had been previously identified); 2. Identification of scenarios that pose particular difficulties for practical cytogenetic biodosimetry, for which advancement of statistical methods may offer solutions; 3. Identification and comparison of solutions that have been previously developed/proposed in the literature and their further development/application (as appropriate) for the scenarios found in 2; 4. Development and testing of further novel solutions, in the Bayesian and classical frameworks, and implementation of these for use in practical cytogenetic biodosimetry (e.g. in Java); 5. Publication of the results. This project has addressed the original aim and above objectives through original research into statistical methods for biological dosimetry resulting in six peer-reviewed publications. The main results from each of these publications are as follows: A review of the literature to identify radiation exposure scenarios requiring further work which outlines the rationale behind a Bayesian approach and gives a practical example; Development of techniques to address the identified gaps, in particular new models for inverse regression and partial body irradiation; Demonstration of application of these novel methodologies to existing and new cytogenetic data in a number of different scenarios and Development of two R-project packages, one to support biological dose estimation using the novel methodology and another to manage the family of Generalized Hermite Distributions.
22

Evolut ionary adap tat ion in cas e - bas ed reasoning. An application to cross-domain analogies for mediation

Gunes Baydin, Atilim 29 November 2013 (has links)
L'analogia juga un papel fonamental en la resolucio de problemes i es troba darrere de molts dels processos centrals de la capacitat cognitiva humana, fins al punt que s'ha considerat "el nucli del coneixement". El raonament analogic funciona a traves del proces de la transferencia, l'us del coneixement apres en una situacio en l'altra per a la qual no va ser destinat. El paradigma de raonament basat en casos (case-based reasoning, CBR) presenta un model molt relacionat, pero lleugerament diferent de raonament utilitzat principalment en la intel.ligencia artificial; diferent en part perque el raonament analogic se centra habitualment en la similitud estructural entre-dominis mentre que CBR te a veure amb la transferencia de solucions entre els casos semanticament similars dins d'un domini especific. En aquesta tesi, ens unim a aquests enfocaments interrelacionats de la ciència cognitiva, la psicologia i la intel.ligencia artificial, en un sistema CBR, on la recuperacio i l'adaptacio es duen a terme per l'Motor d'Associacio Estructural (SME) i son recolzats per el raonament de sentit comu integrant la informacio des de diverses bases de coneixement. Per permetre aixo, utilitzem una estructura de representacio de casos que es basa en les xarxes semantiques. Aixo ens dona un model CBR capac de recuperar i adaptar solucions de dominis que son aparentment diferents pero estructuralment molt similars, formant una de les nostres contribucions en aquest estudi. Una de les principals limitacions de la investigacio sobre els sistemes CBR sempre ha estat l'adaptacio, on la majoria de les aplicacions es van conformar amb una simple "reutilitzacio" de la solucio del cas recuperat, principalment mitjancant una adaptacio null} o adaptacio sustitucional. La dificultat de l'adaptacio es encara mes evident per al nostre cas d'inter-domini CBR utilitzant xarxes semantiques. Resoldre aquesta dificultat aplana el cami per a una contribucio igualment important d'aquesta tesi, on s'introdueix una tecnica nova d'adaptacio generativa basada en la computacio evolutiva que permet la creacio o modificacio espontania de les xarxes semantiques d'acord a les necessitats d'adaptacio CBR. Per a l'avaluacio d'aquest treball, apliquem el nostre sistema CBR al problema de la mediacio, un metode important en la resolucio de conflictes. El problema de la mediacio no es trivial i representa un molt bon exemple del mon real, en el qual podem detectar problemes estructuralment similars de dominis aparentment tan lluny com les relacions internacionals, conflictes familiars i els drets intel.lectuals. / Analogy plays a fundamental role in problem solving and it lies behind many processes central to human cognitive capacity, to the point that it has been considered "the core of cognition". Analogical reasoning functions through the process of transfer, the use of knowledge learned in one situation in another for which it was not targeted. The case-based reasoning (CBR) paradigm presents a highly related, but slightly different model of reasoning mainly used in artificial intelligence, different in part because analogical reasoning commonly focuses on cross-domain structural similarity whereas CBR is concerned with transfer of solutions between semantically similar cases within one specific domain. In this dissertation, we join these interrelated approaches from cognitive science, psychology, and artificial intelligence, in a CBR system where case retrieval and adaptation are accomplished by the Structure Mapping Engine (SME) and are supported by commonsense reasoning integrating information from several knowledge bases. For enabling this, we use a case representation structure that is based on semantic networks. This gives us a CBR model capable of recalling and adapting solutions from seemingly different, but structurally very similar domains, forming one of our contributions in this study. A traditional weakness of research on CBR systems has always been about adaptation, where most applications settle for a very simple "reuse" of the solution from the retrieved case, mostly through null adaptation or substitutional adaptation. The difficulty of adaptation is even more obvious for our case of cross-domain CBR using semantic networks. Solving this difficulty paves the way to another contribution of this dissertation, where we introduce a novel generative adaptation technique based on evolutionary computation that enables the spontaneous creation or modification of semantic networks according to the needs of CBR adaptation. For the evaluation of this work, we apply our CBR system to the problem of mediation, an important method in conflict resolution. The mediation problem is non-trivial and presents a very good real world example where we can spot structurally similar problems from domains seemingly as far as international relations, family disputes, and intellectual rights.
23

3D Motion Data aided Human Action Recognition and Pose Estimation

Gong, Wenjuan 10 May 2013 (has links)
En aquest treball s’explora el reconeixement d’accions humanes i l'estimació de la seva postura en seqüències d'imatges. A diferència de les tècniques tradicionals d’aprenentatge a partir d’imatges 2D o vídeo amb la sortida anotada, en aquesta Tesi abordem aquest objectiu amb la informació de moviment 3D capturat, que ens ajudar a tancar el llaç entre les característiques 2D de la imatge i les interpretacions sobre el moviment humà. / En este trabajo se exploran el reconocimiento de acciones humanas y la estimación de su postura en secuencias de imágenes. A diferencia de las técnicas tradicionales de aprendizaje a partir de imágenes 2D o vídeo con la salida anotada, en esta Tesis abordamos este objetivo con la información de movimiento 3D capturado, que nos ayudar a cerrar el lazo entre las caracteríssticas 2D de la imagen y las interpretaciones sobre el movimiento humano. / In this work, we explore human action recognition and pose estimation problems. Different from traditional works of learning from 2D images or video sequences and their annotated output, we seek to solve the problems with additional 3D motion capture information, which helps to fill the gap between 2D image features and human interpretations.
24

Constancy and inconstancy in categorical colour perception

Roca Vilà, Jordi 30 November 2012 (has links)
El reconeixement d'objectes és potser la tasca més important que un sistema autònom, ja sigui biològic o artificial, necessita realitzar. En el context de la visió humana, això s'aconsegueix parcialment a través del reconeixement del color de les superfícies malgrat els canvis en la distribució espectral de la llum, propietat anomenada constància de color. El reconeixement correcte del color de les superfícies és pot realitzar adequadament mitjançant la correspondència entre categories de color sense la necessitat d'ajustar exactament els mateixos colors, aleshores la constància de color categòrica juga probablement un paper important per tal d'aconseguir amb èxit el reconeixement d'objectes. El principal objectiu d'aquest treball és estudiar la relació entre la constància de color i la percepció categòrica del color. Estudis anteriors de constància de color han mostrat la influència de factors tals com les propietats espai-cromàtiques de l'entorn, particularitats individuals dels observadors, semàntica, etc... Malgrat tot, aquestes influències només s'han estudiat breument de forma sistemàtica. Per solucionar-ho, hem desenvolupat una nova aproximació a la constància de color, la qual inclou la percepció categòrica dels individus, l'estructura categòrica de l'entorn, i les seves interrelacions, resultant en una caracterització més comprensiva del fenomen. En el nostre estudi, primer hem desenvolupat un nou mètode per tal d'analitzar l'estructura categòrica 3D de l'espai de color, la qual ens ha permès caracteritzar la percepció categòrica de cada individu i també quantificar les variacions entre individus en termes de la forma i la localització dels centroides de les regions 3D categòriques. Seguidament, hem desenvolupat un nou paradigma de constància de color, anomenat "chromatic setting", el qual permet mesurar de forma precisa la localització de nou punts categòricament rellevants en l'espai de color sota una ill.luminació envolvent. Adicionalment, hem derivat a partir d'aquestes mesures un nou índex de constància de color, el qual té en compte la magnitud i la orientació cromàtica de l'il.lumiant, influències de la memòria i les interrelacions entre colors, i també un model d'assignació de noms de color ajustat a l'estat d'adaptació de cada observador. A partir dels nostres resultats concloem: (1) Existeixen àmplies variacions entre individus respecte l'estructura categòrica de l'espai de color, i pertant l'abilitat d'assignar noms de color varia significativament però aquesta no està ben predita per les abilitats discriminatives de baix nivell; (2) L'anàlisi de l'espai mitjà d'assignació de noms de color suggereix la necessitat d'afegir tres nous "basic colour terms" ("turquoise", "lilac" i "lime" ) per tal d'optimitzar la comunicació de color; (3) El "chromatic setting" ha millorat la precisió dels models lineals més complexos de constància de color, així suggerint que altres mecanismes que no pas els d'adaptació al guany dels cons poden ser més adequats per tal d'explicar el fenomen de la constància de color; (4) L'estructura categòrica de l'espai de color és en general estable sota canvis d'il.luminant quan s'usen entorns categòricament balancejats; (5) Existeix inconstància de color per entorns categòricament no balancejats i pertant indicant que la informació categòrica percebuda en les etapes inicials de l'adaptació pot condicionar la percepció categòrica posterior. / To recognise objects is perhaps the most important task an autonomous system, either biological or artificial needs to perform. In the context of human vision, this is partly achieved by recognizing the colour of surfaces despite changes in the wavelength distribution of the illumination, a property called colour constancy. Correct surface colour recognition may be adequately accomplished by colour category matching without the need to match colours precisely, therefore categorical colour constancy is likely to play an important role for object identification to be successful. The main aim of this work is to study the relationship between colour constancy and categorical colour perception. Previous studies of colour constancy have shown the influence of factors such the spatio-chromatic properties of the background, individual observer's performance, semantics, etc. However there is very little systematic study of these influences. To this end, we developed a new approach to colour constancy which includes both individual observers' categorical perception, the categorical structure of the background, and their interrelations resulting in a more comprehensive characterization of the phenomenon. In our study, we first developed a new method to analyse the categorical structure of 3D colour space, which allowed us to characterize individual categorical colour perception as well as quantify inter-individual variations in terms of shape and centroid location of 3D categorical regions. Second, we developed a new colour constancy paradigm, termed chromatic setting, which allows measuring the precise location of nine categorically-relevant points in colour space under immersive illumination. Additionally, we derived from these measurements a new colour constancy index which takes into account the magnitude and orientation of the chromatic shift, memory effects and the interrelations among colours and a model of colour naming tuned to each observer/adaptation state. Our results lead to the following conclusions: (1) There exists large inter-individual variations in the categorical structure of colour space, and thus colour naming ability varies significantly but this is not well predicted by low-level chromatic discrimination ability; (2) Analysis of the average colour naming space suggested the need for an additional three basic colour terms (turquoise, lilac and lime) for optimal colour communication; (3) Chromatic setting improved the precision of more complex linear colour constancy models and suggested that mechanisms other than cone gain might be best suited to explain colour constancy; (4) The categorical structure of colour space is broadly stable under illuminant changes for categorically balanced backgrounds; (5) Categorical inconstancy exists for categorically unbalanced backgrounds thus indicating that categorical information perceived in the initial stages of adaptation may constrain further categorical perception.
25

Performance prediction and tuning in a multi-cluster environment

Argollo de Oliveira Dias Júnior, Eduardo 20 July 2006 (has links)
Los clusters de computadores son una alternativa actual usada para el cómputo de aplicaciones científicas. Sin embargo las aplicaciones crecen en complejidad y necesitan más recursos. Unir estos clusters distribuidos usando Internet en un multi-cluster puede permitir lograrlo. Un problema que se introduce con esta colaboración es un incremento en la heterogeneidad tanto de cómputo como de comunicación, aumentando la complejidad de dicho sistema lo que dificulta su uso.El objetivo de esta tesis es lograr la reducción del tiempo de ejecución de aplicaciones, originalmente desarrolladas para un cluster, usando eficientemente un multi-cluster. Proponemos una arquitectura del sistema para lograr una máquina virtual multi-cluster transparente a la aplicación que además la dota de escalabilidad y robustez tolerando los problemas de la comunicación por Internet. Esta arquitectura propone un master-worker jerárquico en el que se introducen elementos claves como los gestores de comunicación que dotan al sistema de robustez, seguridad y transparencia en las comunicaciones entre clusters a través de Internet.Desarrollamos un modelo de prestaciones para poder hacer una estimación teórica del tiempo de ejecución y de la eficiencia de una aplicación ejecutándose en un multi-cluster. La precisión de las estimaciones es superior al 90%.Proponemos una metodología que da un procedimiento que define los pasos para realizar la predicción del tiempo de ejecución, para garantizar un umbral de eficiencia seleccionando los recursos adecuados y para guiar a la sintonización de la aplicación encontrando los cuellos de botella de la ejecución. / Clusters of computers represent an alternative for speeding up scientific applications. Nevertheless applications grow in complexity and need more resources. The joint of distributed clusters, using Internet, in a multi-cluster can allow the resources obtainment.A problem on reaching an effective collaboration from multiple clusters is the increase on the computation and communication heterogeneity. This factor increases the complexity of such a system bringing difficulties in its use.The target of this thesis is to attain the reduction of the execution time of applications, originally written for a single cluster, efficiently using a multi-cluster. In order to reach this goal we propose a system architecture, an analytical model and a performance and tuning methodology.The proposed system architecture aims to obtain a multi-cluster virtual machine, transparent to the application and that provides scalability and robustness, tolerating possible faults in the Internet communication between clusters. This architecture is organized around a hierarchical master-worker with communication managers. Communication managers are a key element responsible for the robustness, security and transparency in the communication between clusters using Internet.The analytical performance model was developed to estimate the execution time and efficiency of an application executing in a multi-cluster. The precision on the estimations are over 90%.The proposed performance prediction and application tuning methodology is a procedure that defines the steps to predict the execution time and efficiency, to guarantee an efficiency threshold and to guide on the application tuning, evaluating the execution bottlenecks.
26

Nous models per a sèries temporals

Moriña Soler, David 30 September 2013 (has links)
En aquest treball ens plantegem dos tipus de problemes. El primer fa referència a la qüestió de l’estacionalitat en el context de les sèries temporals discretes, mentre que en la segona part es tracten models autoregressius de primer ordre amb innovacions no gaussianes. Les sèries temporals a valors enters apareixen en molts i molt variats contextos. L’anàlisi clàssica de sèries temporals contínues pot resultar poc adequada a l’hora de modelitzar fenòmens basats en recomptes, ja que assumeix normalitat en les variacions aleatòries de la sèrie, premissa que difícilment es compleix en el cas de les sèries de nombres enters. Aquest fet motiva l’estudi de models basats en distribucions discretes (Poisson, binomial negativa, …). Tanmateix, en el context dels models habituals de sèries temporals discretes (INAR, INMA,…) no s’han desenvolupat tècniques suficients per tractar amb possibles comportaments estacionals en les dades, i per tant, calen eines adients per modelitzar fenòmens amb aquesta característica, com per exemple, la incidència de malalties com grip, al·lèrgies, pneumònies… En aquest treball proposem una variació del model INAR(2) per tal d’incloure-hi una component estacional i estudiem com es pot aplicar per analitzar dades relatives a ingressos hospitalaris per grip. Seguint amb el mateix exemple, es plantegen diversos mètodes per realitzar prediccions sobre l’ocupació futura de llits hospitalaris basats en aquest tipus de models de sèries temporals de recomptes, a curt i llarg termini. La segona qüestió que s’aborda en aquest treball apareix com un problema de caracterització de distribucions, en un context de models autoregressius de primer ordre, motivada per un resultat sorprenent de McKenzie que afirma que donat un procés Y t amb estructura AR(1), i considerant la sèrie exponenciada Xt = eY t, la funció d’autocorrelació de Xt és la mateixa que la de la sèrie original Y t si i només si la distribució estacionària de Xt és una gamma. Amb aquest punt de partida, el nostre objectiu principal ha estat generalitzar aquest resultat de McKenzie, en el sentit de caracteritzar la distribució de les innovacions en aquest context, i desenvolupar un contrast de bondat de l’ajust basat en la funció distribució empírica per tal de decidir si és raonable pensar, amb un cert nivell de confiança, que la distribució de les innovacions és una distribució concreta. En particular, aquest contrast es pot utilitzar, en la situació clàssica, per tal de comprovar si les innovacions en un model autoregressiu de primer ordre són gaussianes. Aquest contrast s’ha aplicat en primer lloc sobre les captures de peix a l’oceà Atlàntic i golf del riu St. Lawrence, entre 1990 i 1996 per tal d’estudiar si l’assumpció de normalitat de les innovacions és raonable o no. En segon lloc s’ha realitzat el contrast sobre les dades del deflactor del producte interior brut espanyol des de 1962 fins a 2011. Finalment, es presenta un estudi de la potència del contrast, en diferents situacions, considerant diversos valors per al primer coeficient d’autocorrelació, diferents mides mostrals i diverses distribucions marginals. / In this work we consider two kinds of problems. The first concerns the issue of seasonality in the context of discrete time series, while the second part will deal with first-order autoregressive models with non-Gaussian innovations. Integer valued time series appear in many different contexts. The classical analysis of continuous time series can be inadequate when modeling phenomena based on counts, as the assumption of normal random variations is hardly achieved in the case of integer series. This motivates the study of models based in discrete distributions (Poisson, negative binomial, …). However, in the context of standard models of discrete time series (INAR, INMA, …) there is a lack of techniques focused on dealing with possible seasonal behavior in the data, and therefore there is a need of suitable tools to model phenomena presenting this feature, as, for example, the incidence of diseases such as flu, allergies, pneumonia,… In this work we propose a variation of the INAR(2) model to include a seasonal component, and we study how can it be applied to analyze data concerning hospital admissions caused by influenza. Following the same example, we consider several methods to make predictions about future occupation of hospital beds based on this type of time-series models of counts in the short and long term. The second issue addressed in this work appears as a problem of characterization of distributions in the context of first-order autoregressive models, prompted by a surprising result by McKenzie, establishing that a process Y t with AR(1) structure, and considering the exponentiated series Xt = eYt, the autocorrelation function of Xt is the same as the original series Y t if and only if the stationary distribution of Xt is gamma. Using this result as a starting point, our main goal has been to generalize this result by McKenzie in the sense of characterizing the distribution of the innovations in this context, and develop a goodness of fit test based on the empirical distribution function in order to decide whether it is reasonable to assume, at some level of confidence, that the the innovations follows a specific distribution. In particular, this contrast can be used in the classical situation, in order to check if the innovations of a first-order autoregressive model are Gaussian. This contrast has been applied on a data set concerning fish catches in the Atlantic Ocean and Gulf of St. Lawrence River between 1990 and 1996 to study whether the assumption of normality of the innovations is reasonable or not. As a second example, the contrast has been made on data concerning the deflator of the Spanish gross domestic product from 1962 to 2011. Finally, a study of the power of the test, in different situations is presented, considering different values for the first autocorrelation coeffcient, different sample sizes and different marginal distributions.
27

Ellementos básicos de las representaciones visuales funcionales análisis crítico de las aportaciones realizadas desde diversas disciplinas

Entenza Rodriguez, Ana Isabel 04 September 2008 (has links)
Esta investigación surge de la necesidad de elaborar un discurso teórico que nos permita superar el problema de conocimiento fundamentado en el ensayo y el error, práctica que a menudo utilizamos en nuestras aulas, y aportar directrices más sólidas que nos permitan obtener criterios generales para poder “leer” y “escribir” este tipo de mensajes. Nuestro objetivo es definir y enumerar los elementos mínimos sin significado de las representaciones visuales funcionales, bidimensionales y fijas , que nos permitan profundizar en cómo se articula su significado y hacer una propuesta concreta sobre su análisis, a partir de las aportaciones de los diferentes autores consultados. La situación con la que nos encontramos es la de que los estudios de representación visual no proceden de una disciplina propia, sino de varias (arte, psicología, comunicación, semiótica, etc.), y que no dispone de un cuerpo teórico estable, sino que cambia en función de cada disciplina. Esto nos obliga a realizar un enfoque interdisciplinar y a comprender cada propuesta teórica, para tratar de formalizar una especie de «mínimo común múltiplo» de los elementos constitutivos, a partir de las aportaciones de los autores consultados. El estudio detallado de las fuentes de referencia nos permiten agrupar los textos en cuatro grandes bloques: • los que toman como referencia las aportaciones de Da Vinci y Kandinsky (Villafañe, Wong, Arnheim, etc.); • los que siguen, de alguna manera, el camino iniciado por Barthes (Joly y el Grupo μ, entre otros); • los que reflexionan sobre las articulaciones de las representaciones visuales, y sobre la noción de código, a partir de las aportaciones de Prieto y de Eco, fundamentalmente; • y aquellos que han realizado sus aportaciones desde un enfoque más visual que lingüístico, teniendo en cuenta algunas de sus características como, por ejemplo, la espacialidad (Saint Martin, Cossette). Además, en nuestra búsqueda de los elementos básicos de las representaciones visuales funcionales, al margen de épocas o estilos, tendremos en cuenta el cuerpo teórico que nos proporciona la lingüística porque, aunque en muchos sentidos las estructuras verbales y visuales no son comparables, es un referente sine qua non para un análisis de estas características, bien para utilizar sus aportaciones, bien para diferenciarse de ellas. En nuestro caso, en tanto que tratamos de profundizar en la construcción del signo, nos enmarcamos dentro de los estudios de la semiótica visual porque, aunque no hay un acuerdo total al respecto, consideramos que la semiótica es la disciplina que debería elaborar una teoría de la significación y, en el caso de la semiótica de la imagen, la responsable de encontrar los equivalentes visuales de los conceptos lingüísticos de fonema, palabra, oración, etc. / Aquesta investigació parteix de la necessitat d'elaborar un discurs teòric que ens permeti superar el problema de coneixement fonamentat en l'assaig i l'error, pràctica que sovint fem servir a les nostres aules, i aportar directrius més sòlides que ens permetin obtenir criteris generals per poder " llegir "i" escriure "aquest tipus de missatges. El nostre objectiu és definir i enumerar els elements mínims sense significat de les representacions visuals funcionals, bidimensionals i fixes , que ens permetin aprofundir en com s'articula el seu significat i fer una proposta concreta sobre la seva anàlisi, a partir de les aportacions dels diferents autors consultats. La situació amb què ens trobem és la de que els estudis de representació visual no procedeixen d'una disciplina única i pròpia, sinó de diverses (art, psicologia, comunicació, semiòtica, etc.), i que no disposa d'un cos teòric estable, sinó que canvia en funció de cada disciplina. Això ens obliga a fer un enfocament interdisciplinari i comprendre cada proposta teòrica, per intentar formalitzar una mena de «mínim comú múltiple» dels elements constitutius, a partir de les aportacions dels autors consultats. L'estudi detallat de les fonts de referència ens permeten agrupar els textos en quatre grans blocs: • els que prenen com a referència les aportacions de Da Vinci i Kandinsky (Villafañe, Wong, Arnheim, etc.); • els que segueixen, d'alguna manera, el camí iniciat per Barthes (Joly i el Grup μ, entre d'altres); • els que reflexionen sobre les articulacions de les representacions visuals, i sobre la noció de codi, a partir de les aportacions de Prieto i d'Eco, fonamentalment; • i aquells que han realitzat les seves aportacions des d'un enfocament més visual que lingüístic, tenint en compte algunes de les seves característiques com, per exemple, l'espacialitat (Saint Martin, Cossette). A més, en la nostra recerca dels elements bàsics de les representacions visuals funcionals, al marge d'èpoques o estils, tindrem en compte el cos teòric que ens proporciona la lingüística perquè, encara que en molts sentits les estructures verbals i visuals no són comparables, és un referent sine qua non per a una anàlisi d'aquestes característiques, bé per fer servir les seves aportacions, bé per allunyar-se de elles. En el nostre cas, en tant que tractem d'aprofundir en la construcció del signe, ens emmarquem dins dels estudis de la semiòtica visual perquè, encara que no hi ha un acord total sobre això, considerem que la semiòtica és la disciplina que hauria d'elaborar una teoria de la significació i, en el cas de la semiòtica de la imatge, la responsable de trobar els equivalents visuals dels conceptes lingüístics de fonema, paraula, oració, etc. / Our research stems from the need to develop a theoretical discourse capable of overcoming the problem of knowledge based on trial and error—common in our classrooms—and of providing more solid guidelines and general criteria to ‘read’ and ‘write’ this type of messages. Our aims are: to identify and define those minimum elements without meaning in two-dimensional, functional, fixed visual representations that illustrate how its actual meaning is conveyed; and to propose how those elements might be analyzed, based on contributions of the different authors we consulted. The current situation is that studies in visual representation do not have their own specialty and are dispersed among different disciplines (art, psychology, communications, semiotics, etc.) and do not have a stable body of theory (thus changing according to each discipline). We must therefore adopt an interdisciplinary approach and broach each theoretical proposal separately in order to formalize something like a ‘minimum common denominator’ of the constituent elements based, again, on the contributions of the different authors we consulted. A detailed analysis of sources and references allow the literature to be broken down into four large blocks: • Those that look to Da Vinci and Kandinsky (Villafañe, Wong, Arnheim, etc.); • Those that follow to some degree the path marked by Barthes (Joly and Groupe μ, among others); • Those that reflect on the production of visual representations and the idea of code, fundamentally through the prisms of Prieto and Eco; • Those that use a visual (rather than linguistic) focus and consider characteristics such as ‘spaceness’ (Saint Martin, Cossette). In our review of the basic elements of functional visual representations and independently of period and styles, we use the theoretical corpus that linguistics offers—even though verbal and visual structures are not always comparable—because it is an inevitable point of reference for an analysis of this nature, either to co-opt its concepts or differ from them. We immediately situate ourselves in the field of visual semiotics as soon as we try to dig deeper into the construction of the signifier because (although there is no general agreement in this regard) semiotics should be the discipline that elaborates a theory of meaning and—as in the case of semiotics of images—finds visual equivalents to the linguistic concepts of phoneme, word, speech, and so on.
28

Predictive and Distributed Routing Balancing for High Speed Interconnection Networks

Nuñez Castillo, Carlos Heriberto 30 May 2013 (has links)
En los clusters de altas prestaciones, los requerimientos actuales de las comunicaciones de las aplicaciones, como el patrón de tráfico, el volúmen de comunicaciones entre otras, pueden cambiar a lo largo del tiempo y son difíciles de predecir. Estas necesidades generalmente exceden o no se corresponden con los recursos disponibles realmente, lo cual conlleva a una situación de desbalanceo de los recursos, congestión en la red, reducción del throughput y un incremento considerable en los valores de latencia de los mensajes. Todo esto conlleva una degradación general del rendimiento de todo el sistema computacional. Los estudios de las aplicaciones paralelas demuestran que estas tienen un comportamiento repetitivo. Además, esta repetitividad puede detectarse y caracterizarse a través de unas fases representativas. Este trabajo propone un Algoritmo de Encaminamiento Predictivo y Distribuido (PR-DRB). Este nuevo método propone controlar la congestión de la red de manera gradual basándose en la expansión controlada de caminos, la distribución del tráfico, la repetitividad en las aplicaciones paralelas y el encaminamiento adaptativo especulativo; de manera a mantener los valores de latencia controlados. PR-DRB monitorea la latencia de los mensajes en los encaminadores y guarda las mejores soluciones adaptativas encontradas a una situación de congestión. Esto se realiza de manera a re aplicar estas mejores soluciones de manera rápida ante situaciones similares futuras. Fueron desarrollados varios experimentos que generen congestión de tráfico a fin de evaluar el rendimiento de la propuesta, y se han logrado mejoras importantes en el rendimiento global del sistema. / In high performance clusters, current parallel application communication needs, such as traffic pattern, communication volume, etc., change along time and are difficult to know in advance. Such needs often exceed or do not match available resources causing resource use imbalance, network congestion, throughput reduction and message latency increase, thus degrading the overall system performance. Studies on parallel applications show repetitive behavior that can be characterized by a set of representative phases. This work presents a Predictive and Distributed Routing Balancing (PR-DRB) technique, a new method developed to gradually control network congestion, based on paths expansion, traffic distribution, applications pattern repetitiveness and speculative adaptive routing, in order to maintain low latency values. PR-DRB monitors messages latencies on routers and saves the found solutions to congestion, to quickly respond in future similar situations. Traffic congestion experiments were conducted in order to evaluate the performance of the method, and improvements were observed.
29

Aportes metodológicos en la estimación de tamaños de muestra en estudios poblacionales de prevalencia

Alvarado Orellana, Sergio 17 September 2014 (has links)
Esta tesis doctoral aborda la aplicación de seis enfoques estadísticos que se utilizan para estimar tamaños de muestra en poblaciones multinomiales los que corresponden a: Angers (1974), Tortora (1978), Thompson (1987), Cochran (1977), Bromaghin (1993) y Fitzpatrick & Scott (1987), dichos enfoques están ampliamente discutidos en la literatura del muestreo estadístico pero generan controversia al momento de aplicarlos en estudios de salud dado a que no siempre permiten conjugar costos, representatividad y tamaños de muestra adecuados para un esquema de muestreo aleatorio simple y muestreo complejo de poblaciones en donde la variable de diseño o estudio corresponde a una distribución de tipo multinomial. Se discute inicialmente como la utilización de la máxima varianza cuando la variable de diseño con k=2 categorías entrega estimaciones de prevalencias considerando un valor P=0,50 para estimar dicho tamaño muestral, sin conocer valores previos de dicho estimador lo que entrega estimaciones sesgadas. Posteriormente se simularon poblaciones teóricas para variables de k=3, 4, 5, 6 y 7 categorías, generando 25 poblaciones distintas de tamaño N=1.000.000 que variaban según distintos valores de proporciones para las distintas categorías. Para dichas poblaciones se extrajeron mediante muestro aleatorio simple, muestras de distintos tamaños que fueron estimadas mediante los seis enfoques mencionados anteriormente que consideraron distintos valores de errores muestrales, posteriormente se evaluó el desempeño de estos mediante: 1) Tamaño de muestra, 2) Nivel de confianza real, 3) Estimador promedio, 4) Sesgo y 5) Mediana del Error cuadrático medio. Luego la discusión se enfoca en la determinación de que método analizado entrega mejores tamaños de muestra y estimaciones considerando distintos escenarios en donde las categorías consideradas van desde k=3 a k=7, finalmente se propone y discute la utilización de las medidas de incertidumbre o entropía de Shannon para estudiar la incertidumbre asociada a los vectores estimados mediante los distintos métodos. / This dissertation addresses the application of six statistical approaches used to estimate sample sizes in multinomial populations which correspond to: Angers (1974), Tortora (1978), Thompson (1987), Cochran (1977), Bromaghin (1993) and Fitzpatrick & Scott (1987), such approaches are widely discussed in the literature of statistical sampling but generated controversy when applying in health studies because they do not always allow combining costs, representation and adequate sample sizes for sampling scheme simple random sampling and complex populations where the design variable or study corresponds to a multinomial distribution type. Initially discusses how the use of a maximun variance when the design variable with k = 2 gives estimates of prevalence categories considering a P = 0.50 for this sample size estimate without knowing previous values of this estimator which delivers biased estimates. Later theoretical populations were simulated for variables k = 3, 4, 5, 6 and 7 categories, generating 25 different populations of size N = 1,000,000 varying proportions according to different values for different categories. For these populations were extracted by simple random sampling, samples of different sizes were estimated using the six approaches mentioned above that considered different values of sampling errors, then the performance of these was assessed by: 1) sample size, 2) Level of real confidence, 3) average Estimator, 4) bias and 5) mean Square Error. The discussion then focuses on determining which delivery method best used sample sizes and estimates considering scenarios where the categories considered ranging from k = 3 to k = 7, finally proposes and discusses the use of measures of uncertainty or entropy Shannon to study the uncertainty associated with the estimated vectors using different methods.
30

Nuevos modelos y técnicas estadísticas para el estudio de datos financieros

Daoudi, Jalila 13 July 2009 (has links)
Nuestra línea de investigación se ha desarrollado en el ámbito de la estadística aplicada a las finanzas. Nuestro objetivo es encontrar y analizar nuevos modelos estadísticos para ajustar los datos financieros y nuevas técnicas para estudiar el comportamiento de las colas. Una aplicación destacada de este trabajo es el estudio del riesgo operacional. En los últimos años, la industria bancaria ha cambiado profundamente por los procesos de liberalización, innovación financiera y tecnológica. Esto, ha generado en las entidades financieras una evolución en el ámbito de la modelización de procesos para la medición y gestión del riesgo. El riesgo financiero se define como el impacto adverso en el rendimiento debido a diferentes fuentes de incertidubre. En la actualidad, y desde una perspectiva avanzada de riesgos, se identificarían y se cuantificarían tres tipos de riesgo: riesgo de mercado, riesgo de crédito y riesgo operacional. A diferencia de los anteriores, el riesgo operacional es un riesgo que no es producto de la toma de una posición de riesgo, tiene su origen en sucesos que no pueden ser adscritos a riesgo de mercado o a riesgo de crédito, se define como la pérdida potencial por deficiencias en los controles, por los errores en el procesamiento y almacenamiento de las operaciones o en la transmisión de información, así como por resoluciones administrativas y judiciales adversas, fraudes, robos o por factores externos. El método más reciente para la cobertura de riesgo operacional es el método de medición avanzado (AMA) que consiste en la modelización de la distribución agregada de pérdidas (Loss Distribution Approach o LDA) que se ha utilizado con éxito en el ámbito de seguros. Bajo el supuesto de que las severidades son independientes entre si e independientes de la frecuencia de los sucesos, la metodología LDA requiere la modelización por separado de la frecuencia y de la severidad. El capital regulatorio se calcula como el percentil de la distribución agregada de pérdidas para un nivel de probabilidad del 99;9%. Las fluctuaciones pronunciadas de precios conducen a serias inestabilidades en los mercados financieros. Estas perturbaciones llevan a problemas en la gestión del riesgo. En este contexto, es necesaria la modelización del comportamiento de estos precios que alcanzan valores extremos. La distribución normal no determina con suficiente precisión dicho comportamiento, lo cual obliga a recurrir a otro tipo de distribuciones de colas pesadas o semi pesadas. En el Capítulo uno, haremos una descripción de las distribuciones de colas pesadas que son distribuciones que tienen colas más pesadas que la distribución exponencial. Históricamente se han utilizado en el mundo de seguros, especificamente las distribuciones subexponenciales. En la última década, esta metodología se ha trasladado al mundo de las finanzas. De forma más amplia los mercados financieros están bajo una permanente tensión por la interacción entre la oferta y la demanda, lo cual implica fluctuaciones pronunciadas en los precios. El modelo clásico para estudiar la evolución de los precios es el modelo de Black Scholes que supone normalidad en la distribución de los precios. Los estudios empíricos, que presentan una curtosis elevada y valores extremos que no se pueden ajustar por la distribución normal, muestran que este modelo está lejos de ser adecuado. Suponiendo normalidad de la distribución de la oferta y de la demanda, y si hay tantas ofertas como demandas (mercado ideal), las transacciones siguen una mixtura de normales. En caso contrario, cuando no se aceptan de la misma manera las ofertas y las demandas las transacciones pueden seguir una mixtura de normales truncadas. En el Capítulo dos, proponemos la mixtura de normales truncadas para ajustar los datos de tipo de cambio. Es un modelo muy apropiado dado que en la práctica nos permite estudiar la no-normalidad de los datos teniendo en cuenta la asimetría de los mismos. Para ello, primero desarrollamos las propiedades de la distribución propuesta y a continuación demostramos que la función de verosimilitud tiene un máximo único y que este máximo depende del coeficiente de variación. El enfoque basado en la modelización de la distribución de severidad mediante distribuciones de colas semi pesadas tales que la distribución lognormal, la inversa gaussiana y la mixtura de normales proporcionan estimaciones robustas estables del capital regulatorio, es decir, las cifras de capital entre dos periodos sólo pueden variar por su exposición al riesgo. El enfoque basado en la teoría de valor extremo que se caracteriza por el ajuste de los valores que superan un determinado umbral con la distribución de Pareto generalizada es de mucha importancia dado que las entidades se basan únicamente sobre las pérdidas elevadas, aunque la elección de manera eficiente del umbral a partir del cual se realiza el ajuste a una distribución de Pareto es crucial para obtener valores estables de las medidas de riesgo. Varios autores estudiaron la estimación de la distribución de Pareto generalizada mediante el método de máxima verosimilitud. No obstante, los métodos numéricos no siempre tienen soluciones sobretodo cuando las muestras son pequeñas, por ello se han propuesto otros métodos tales como el método de los momentos ponderados que sólo se puede utilizar cuando el momento de orden dos es finito, y el método que consiste en estimar los parámetros a través de los estadísticos de orden. En el Capítulo tres, explicaremos los problemas destacados de la no convergencia en algunos casos de la función profile verosimilitud de la distribución de Pareto generalizada. Luego, demostraremos que la función profile verosimilitud se caracteriza por el coeficiente de variación empírico. Por último, probaremos que en el caso de la distribución de Pareto, la función de verosimilitud tiene un máximo global cuando el coeficiente de variación empírico es mayor que uno. Por otro lado, ilustramos con un ejemplo que la función de verosimilitud de la distribución de Pareto generalizada puede no tener soluciones. En el Capítulo cuatro, utilizamos la caracterización de la distribución de Pareto generalizada a través del coeficiente de variación condicionado para desarrollar una metodología previa y complementaria a los estudios paramétricos y contrastar el modelo desde un punto de vista empírico. Es un método alternativo a los métodos clásicos ME-Plot y el Hill-Plot para estudiar las colas. Además nos permite encontrar de manera eficiente el umbral a partir del cual podemos ajustar los datos por una distribución de Pareto y estimar el parámetro del peso de la cola. Por otro lado, proponemos un test de exponencialidad contra las alternativas de cola Pareto. Una de las dificultades de la distribución de Pareto generalizada es que al incluir distribuciones de soporte acotado, existen problemas de convergencia de los estimadores. Además las ecuaciones de verosimilitud para muestras pequeñas pueden no tener soluciones. Por ello, proponemos la distribucón TNP que es la unión de la normal truncada, la distribución exponencial y la distribución de Pareto como alternativa a la distribución GPD. / Our line of investigation has developed in the field of the statistical applied to the finances. Our aim is to find and analyse new statistical models to adjust the financial data and new techniques to study the behavior of the tails. An application of this work is the study of operational risk. The banking business has changed deeply by the processes of liberalization, financial and technological innovation. This, has generated an evolution in the field of modeling the processes for the measurement and the quantification of the risk. The risk of loss has his origin in events that can not be attribute to market risk or to credit risk, it is resulting from inadequate or failed internal processes, people and systems or from external events. This definition includes legal risk but excludes strategic and reputacional risk. The most recent method for hedging the operational risk is the method of advanced measurement (AMA) that consists in modeling the aggregate distribution of losses (Loss Distribution Approach or LDA) that has been used successfully in the field of insurances. assuming that the severities are independent, and, that are independent of the frequency of the events, the methodology LDA requires modeling separately the frequency and the severity. The VaR is then calculated as the percentile of the aggregate distribution of losses for a level of probability 99;9%. In the Chapter one, we give an overview on heavy-tailed distributions. Historically, it have been used in the world of insurances, specifically the distributions subexponentials. In the last decade, this methodology has moved to the world of the finances. In the Chapter two, it is shown that the prices formation mechanism may explain some amount of non-normality. Assuming normality for bid and ask prices, the observed transaction prices may be a mixture of normal distributions or a mixture of left- right truncated normal distributions, the latter case being more likely. The statistical properties of the mixture of left-right truncated normal distri- butions are developed. It is proved that there is only one maximum for the likelihood function and the maximum is closely related to the coeficient of variation. Our results show that continuity at zero of this distribution can be avoided in statistical analysis. Empirical work suggests that in financial data non-normality is also produced for a large number of values close to the mean, here referred to as ïnliers". This could explain that the Laplace approximation is often a better approach than normal distribution for daily returns. The approach based in the modeling the distribution of severity by semi weighed distributions such as the lognormal distribution, the inverse gaussian and the mixture of normal provide robust estimates estables of the VaR. The approach based in the theory of extreme value that adjust the values over an determined threshold by the generalized Pareto distribution is of importance To obtain values estables of the measures of the risk. In the Chapter three, we provide precise arguments to explain the anomalous behavior of the likelihood surface when sampling from the generalized Pareto distribution for small or moderate samples. The behavior of the profile-likelihood function is characterized in terms of the empirical coefficient of variation. A suficient condition is given for global maximum of the likelihood function of the Pareto distribution to be at a finite point. In the Chapter four, we develop a previous and complementary methodology to the parametric studies to contrast the model from a point of empirical view. New methods to decide between polynomial or exponential tails are introduced. Is an alternative method to the classical methods ME-Plot and the Hill-Plot. The key idea is based on a characterization of the exponential distribution and uses the residual coefficient of variation as a random process. A graphical method, called a CV plot, is introduced to distinguish between exponential and polynomial tails. Moreover, new statistics introduced from a multivariate point of view allow for testing exponentiality using simultaneously several thresholds. The usefulness of our approach is clearly shown with the daily returns of exchange rates between the US dollar and the Japan yen. One of the difficulties of the distribution of generalized Pareto is that include bounded distributions, there lead a problems of convergence of the estimators. Besides the likelihood functions for small samples can not having solutions. Thus, we propose the TNP distribution that is the union of the normal truncated, the exponential distribution and the distribution of Pareto and is an alternative to the distribution GPD to modeling financial data.

Page generated in 0.0756 seconds