• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 221
  • 141
  • 97
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 466
  • 204
  • 203
  • 178
  • 162
  • 160
  • 133
  • 131
  • 131
  • 131
  • 131
  • 131
  • 128
  • 81
  • 72
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Control del proceso de curado de un laminado de PRFV por ultrasonidos

Moreno Martínez, Juan Antonio (Professor d'enginyeria naval) 22 January 2016 (has links)
La consulta íntegra de la tesi, inclosos els articles no comunicats públicament per drets d'autor, es pot realitzar prèvia petició a l'Arxiu UPC / In this PhD thesis a methodology for the quality control of reinforced fiberglass plastic manufacturing process is proposed. The system is based on the ultrasonic pulse-echo nondestructive method and longitudinal waves on direct contact. The presented methodology is based on the in-line monitoring of the reflected ultrasonic signal during the laminate curing of the polyester resin reinforced with fiber glass, which is the most widely used material in the construction of pleasure boat hulls and fishing fleet. Further data processing over a period of fifteen days has allowed the representation of the ultrasonic amplitude from the back-wall echo on a function of time, obtaining in this way the characteristic sigmoid curve of growth and maturation of the tested material. Simultaneously to the ultrasonic measurements, a hardness measurements (Barcol test) have been performed on a series of homologous manufactured samples. A relation between the ultrasonic curing curve and the hardness curve has been obtained where the ultrasonic amplitude and the hardness measurements increases by the days. A final mathematical fitting has been applied. Due to its versatility, its nondestructive nature and the property of the transducers of being non-invasive in addition to the possibility to use a standard ultrasonic equipment together with a broad selection of existing transducers, this methodology might help to the inspection of the boat building process. / En esta tesis doctoral se propone una metodología para el control de la calidad durante el proceso de fabricación de una estructura de plástico reforzado con fibra de vidrio, utilizando el método de ensayo no destructivo de los ultrasonidos mediante impulso-eco y ondas longitudinales por contacto directo. La metodología que se presenta se basa en la monitorización en tiempo real de la evolución de la señal ultrasónica reflejada durante el proceso de curado- maduración de un laminado de resina de poliéster reforzada con fibra de vidrio (PRFV), que es con diferencia el material más ampliamente utilizado en la construcción de cascos de embarcaciones de la náutica de recreo y gran parte de la flota pesquera. Un posterior procesamiento de los datos registrados en continuo durante un período de 15 días, han permitido representar la evolución de la amplitud de la señal o eco de fondo en función del tiempo, obteniéndose de esta forma una curva sigmoide patrón característica del proceso de fabricación que puede utilizarse como indicador cualitativo del grado de curado-maduración del laminado. Simultáneamente a la medición ultrasónica, se han realizado ensayos de dureza Barcol, en probetas fabricadas en series homólogas, observándose una similitud entre las curvas obtenidas por ultrasonidos y las de dureza, donde los valores de amplitud de la señal ultrasónica y los datos de dureza registrados van en aumento según evoluciona el proceso de maduración. Finalmente se ajusta matemáticamente la curva ultrasónica obtenida. Por su versatilidad, su naturaleza no destructiva ni intrusiva del sensor y la posibilidad de utilizar un equipo convencional de ultrasonidos junto a la gran disponibilidad de palpadores comerciales existentes actualmente en el mercado, la metodología propuesta puede facilitar en gran medida la inspección en el proceso de fabricación de embarcaciones.
82

Aportaciò a la detecció de simetries en imatges amb projecció ortogràfica

Marès Martí, Pere 11 June 2002 (has links)
El mètode de detecció de simetria local de reflexió que es presenta, pretén ser una aportació més a la recerca en visió per computador i la robòtica. Com és sabut haches camps d'aplicació impliquen considerar el temps de processament com un paràmetre bàsic. Així doncs, en aquesta tesi no ens conformem en obtenir un algorisme eficient de detecció de simetria si no que es planteja millorar el temps de processame nt a partir de l'obtenció de metodologies i algorismes que tinguin la qualitat de permetre una fácil implantació del processament en paral· lel així com de la implementació de processadors específics.El mètode de detecció de simetria es basa en les contribucions a la simetria de les parelles de segments rectilinis de la imatge. Aquesta aproximació permet una reducció considerable de la complexitat, de la mateixa manera que altres autors utilitzen reduccions basades en diferents agrupacions de punts de contorn, com ara segments d'arcs, b-splines etc. El mètode, així concebut, serà aplicable en imatges on les línies rectes siguin predominats com és el cas de construccions artificials i entorns estructurats.Tot i que l'anterior restricció és important, és adequada per al tipus d'aplicacions que hem exposat anteriorment i ens permet obtenir un mètode de detecció contributiu, a partir de l'acumulació de contribucions locals a la simetria de les parelles de segments rectilinis de la imatge. Es tracta doncs d'un mètode basat en un anàlisi local que mostra els avantatges d'aquesta aproximació mentre que pel fet de tractar-se d'un mètode contributiu millora els dos principals inconvenients de l'aproximació local, és a dir, la sensibilitat al soroll i la inestabilitat, la qual cosa representa una aportació a la superació del dilema "anàlisi local versus anàlisi global".El mètode es composa de quatre etapes:- Obtenció de la llista de segments rectilinis de la imatge- Obtenció dels segments de contribució a la simetria- Càlcul del mapa d'acumulació dels segments de contribució- Extracció d'eixos locals de simetriaUna característica que distingeix el mètode és que proporciona l'abast de la simetria, és a dir, la llargada dels eixos de simetria, precisant-ne els punts inicial i final. Per altra banda la característica contributiva del mètode proposat, ha permès detectar els eixos de simetria local amb una ponderació associada segons la seva importància. D'aquesta forma s'evita el processat d'alt nivell posterior per tal de determinar els eixos més significatius, necessari en la majoria de mètodes basat en l'aproximació local. Respecta la millora del temps de processat i donada la complexitat i extensió del problema de la detecció de simetria, s'ha fet un primer esforç en una de les etapes del mètode de més cost de computació. Concretament s'ha accelerat un procés que forma part del càlcul del mapa d'acumulació esmentat anteriorment, consistent en l'obtenció dels píxels que aproximen, en el pla discret, un segment rectilini especificat per els seus punts inicial i finals. Aquesta millora s'ha obtingut mitjançant un algorisme paral· lel que presenta com avantatges més rellevants: la simplicitat, eficiència i que permet un directa implementació d'un processador dedicat. Per l'altra banda, amb el mateix objectiu de millorar el temps de processament i en base a l'algorisme anterior, s'ha dissenyat un processador paral· lel dedicat que té la capacitat d'obtenir i emmagatzemar simultàniament, en una matriu de registres, el conjunt de píxels que aproximen, en el pla discret, un segment rectilini caracteritzat per els seus punts inicial i final. Una característica molt remarcable del processador és que obté i registra els píxels anteriors en un únic període de rellotge.Finalment per tal de conèixer el paràmetres referents a la seva viabilitat i prestacions, s'ha obtingut, mitjançant la simulació, una versió reduïda amb tecnologia d'alta escala d'integració VLSI en un únic circuit. El disseny obtingut ha mostrat la capacitat de processar17,2 Mega Segments/seg, en el pitjor del casos, mentre que en les condicions més favorables es capaç de processar 57,3 Mega segments/segon. / The method of reflection local symmetry detection presented aims to be a new approach to the research in vision computer and robotics. As we know them, these fields of application imply to consider the processing time as a basic parameter. In this way, in this thesis we shall obtain an efficient algorithm for symmetry detection and, moreover, we will try to improve the processing time with methodologies and algorithms that will be able to embed easily in parallel architectures and the implementation of specific processors.The symmetry detection method is based in symmetry contributions from the straight segments in the image. This approximation permits a considerable reduction in the complexity in the same way that other authors use reductions based in different grouping of contour points, such as arcs, b-splines, etc. The method conceived like this will be applicable in images where straight lines are predominant like in the case of artificial buildings and structured environments.Although the above restriction is important, it is suitable for all kinds of applications that we have exposed previously and it allows us to obtain a contributive detection method from the accumulation of local contribution of symmetry in pairs of straight segments in the image. Thus, it is a method based in the local analysis that shows the advantages of this approach while it improves the two main disadvantages of local approximation because it is a contributive method. These drawbacks are the sensibility to noise and instability which represent a novel approach to the overcoming of the "local analysis versus global analysis" dilemma.Four steps compose the method: - To obtain the straight segments list in the image- To obtain the symmetry contribution segments- To calculate an accumulation map of contribution segments- To extract the local symmetry axes.A distinctive feature is that the method yields the symmetry range, that is, the length of symmetry axes, with precise position of initial and final points.On the other hand, the contributive feature of the proposed method has allowed us to detect the local symmetry axes with an associated weight to their importance. That avoids the posterior high level processing in order to determine the more significative axes needed in most of the approaches based in local approximation. With respect to the improvement of processing time, and given the complexity and extension of the symmetry detection problem, an initial effort has been made in one of the stages of higher computational cost in the method. Specifically, a process in the calculation of the accumulation map has been accelerated, consistently in the achieving of pixels that form, in the discrete plane, a straight segment specified for its initial and final points. This improvement has been obtained with a parallel algorithm that presents more relevant advantages: simplicity, efficiency and it allows a direct implementation with a dedicated processor.Furthermore, with the same objective of processing time improvement and in basis to the above algorithm, a dedicated parallel processor has been designed with the capability to obtain and store simultaneously, in an array of registers, the set of pixels that approximate, in the discrete plane, a straight segment characterised by its initial and final points. A very remarkable feature of the processor is to obtain and store those pixels in a unique clock period.Finally, in order to know the parameters concerning its viability and performance, a simulated reduced version with VLSI (very large scale integration) technology in a unique circuit has been achieved. The obtained design has shown the capability of processing 17.2 million segments per second in the worst case, while in the most favourable conditions it is able to process up to 57.3 million segments per second.
83

Estratègies formatives en la prevenció d'accidents

Díaz Boladeras, Marta 17 March 1997 (has links)
El problema que aborda aquesta investigació és el de la sinistralitat laboral o, dit d'una altra manera, la pèrdua de salut o qualitat de vida que es produeix en l'àmbit laboral. Tal com es reconeix unànimement, malgrat el considerable progrés realitzat, el nombre d'accidents de treball i el de malalties professionals segueix sent excessivament elevat. Aquesta constatació implica una revisió crítica de les polítiques i estratègies utilitzades en la prevenció. Aquesta ineficàcia relativa de les intervencions en prevenció fa qüestionar l'actual model de causació del dany i, correlativament, les estratègies de prevenció que es basen en aquests models. / The problem that this work is concerned with is accidents and occupational risk prevention. We focus on the lose of health and quality of life in work environments due to unsafe behaviour.It is assumed that in spite of evident improvement in management and health promotion, the rate of occupational accidents and professional diseases is still high. We consider that this fact demands a critical review of policies and strategies implemented in occupational risk prevention. This lack of effectiveness of occupational risk prevention measures leads to a critical revision of the current models of risk and accident causation and in the same sense of the interventions based on these models.
84

Diseño conceptual de productos asistido por ordenador : Un estudio analítico sobre aplicaciones y definición de la estructura básica de un nuevo programa

Chaur Bernal, Jairo 03 June 2005 (has links)
El tema de la investigación es «la creatividad en la fase conceptual del diseño de productos» y se orienta a la aplicación del ordenador como herramienta de asistencia al ingeniero de diseño. De las tres fases del proceso de diseño de productos (definición del problema, generación de conceptos y desarrollo de la mejor alternativa), es en la segunda, conocida como «síntesis», donde se da la máxima expresión de creatividad. La hipótesis de partida afirma la posibilidad de asistir al ingeniero de diseño en esa etapa, mediante el uso de «software creativo» (que implementa técnicas, metodologías y herramientas de creatividad). El objetivo principal de esta tesis es obtener la estructura de tal tipo de software, partiendo de la identificación de características adecuadas, mediante un estudio experimental detallado, previa definición de un modelo objetivo de valoración. Diseño se entiende aquí como el conjunto de actividades que conduce al desarrollo de una idea de producto. Mientras que la creatividad técnica es aquella que produce dos resultados complementarios: novedad y utilidad. La revisión de las tendencias que siguen los productores de software CAD/CAM/CAE, indican que la fase del análisis, que caracteriza al diseño de detalle, sigue siendo privilegiada con respecto a la fase de diseño conceptual. Del software creativo genérico ofrecido actualmente, se hace una selección de cuatro programas representativos que desarrollan metodologías como las de brainstorming, sinéctica, mapas mentales y TRIZ. Los modelos de medición de la creatividad se aplican a la persona, el proceso o el producto. Se seleccionó el test CREA para el primer caso. Para los otros, se realizó una adaptación de la propuesta de Shah (2003), que, junto con aportes propios, condujo a la definición del modelo de valoración de la creatividad de ideas generadas durante el proceso de diseño, con cuatro índices: flexibilidad, fluidez, elaboración y originalidad. Tal modelo facilitó la comparación gráfica y cuantitativa de las variables: tiempos por actividad y por módulo de software, cantidad total, flujo y origen de ideas, índices de creatividad y trayectoria creativa. El factor de diseño experimental fue el tipo de software, con cinco niveles: cuatro programas y un testigo. Se realizaron cuatro repeticiones y el método utilizado fue el estudio de protocolo modificado para obtener la información de cuatro fuentes: vídeo, dibujos, archivo generado y secuencia de uso del software.Los resultados obtenidos y su respectivo análisis permitieron identificar características relevantes de cada programa, herramientas efectivas y configuraciones más aceptadas por los diseñadores. En general, se puede afirmar que el software creativo sí propicia la generación de ideas mediante asociaciones, transformaciones o exploraciones. Con la identificación de estas características, se desarrolló la propuesta de estructura del nuevo software, presentada en forma de maqueta. Se sustenta, en el modelo FBS (Function-Behaviour-Structure) para construir el proceso evolutivo del diseño, centrado en la «función» con sus tres roles: modelación de requerimientos, articulación entre estos y el objeto, e instrumento de evaluación del valor del objeto. Se tiene en cuenta la forma de representación del modelo de evolución funcional de Takeda (1996), con un cuerpo de función, modificadores funcionales y estructuras de solución; y el estímulo al desarrollo cíclico de etapas divergentes y convergentes (Liu et. al., 2003). La propuesta articula dos tipos de herramientas. En el primero se incluye las técnicas de creatividad identificadas como las más eficientes. En el segundo están las bases de datos que sirven de extensión a la memoria del diseñador, de manera que disponga siempre de fuentes adecuadas para traducir o procesar las ideas generadas con las técnicas de creatividad, convirtiéndolas en ideas útiles para solucionar el problema de diseño. / The subject of this investigation is the creativity in the conceptual phase of the product design and it is oriented to the application of the computer as aid tool to design engineers. The three phases of the product design process are: problem definition, concepts generation, and development of the best alternative. It is in the second of them, known as "synthesis", where the highest creativity expression occurs. The main hypothesis is the affirmation of the possibility of aiding the design engineers in conceptual stage by the use of "creative software" (that implements technical, methodologies and tools of creativity). The aim of this thesis is to obtain the structure of such software by means of the definition of an objective evaluation model and then, by a detailed experimental study. Design is understood as the set of activities that leads to the development of a product idea. Whereas the technical creativity produces two complementary results: newness and utility. The tendencies that follow by the CAD/CAM/CAE producers, indicates that the phase of the analysis (that characterizes to the detail design), continues being privileged with respect to the conceptual design phase. Four representative programs were selected of the actual generic creative software; they develop techniques as brainstorming, synectis, mind maps and TRIZ. The evaluation of creativity can be approached from three different points of view: the qualification of the individual (the psychological viewpoint), the process of product design (the process viewpoint) and the product designed (the product viewpoint).The "CREA" test was selected for the individual creativity evaluation. For the others viewpoints, an adaptation of the proposals of Shah & Vargas (2003) was made, that lead to the definition of the evaluation model for creativity of ideas generated during the design process, with four indices: flexibility, fluidity, elaboration and originality. Such model facilitated the graphical and quantitative comparison of variables: times by activity and software module; total amount, flow and origin of ideas; indices of creativity and creative trajectory. The factor of experimental design was the type of software, with five levels: four programs and a witness. Four repetitions were made and the used method was the study of protocol, modified to obtain the data of four sources: video, drawings, generated file and sequence of use of software. The results and their respective analysis allowed to identify the best characteristics of each program, effective tools and configurations more accepted by the designers. In general, it is possible to be affirmed that creative software is useful for generation of ideas by means of associations, transformations or explorations. With the identification of these characteristics, the mock-up of the new software structure is presented. It is sustained, in the FBS model (Function-Behaviour-Structure), to construct the evolutionary process of the design, where the function plays its three roles: modelling of requirements, fit between these and the object, and instrument for object evaluation. The representation form of the Takeda's (1996) functional evolution was considered, with a function body, functional modifiers and structures of solution; and the stimulus to the cyclical development of divergent and convergent stages (Liu et al., 2003). The proposal articulates two types of tools. In first one includes the most efficient techniques of creativity identified in the experimental study. In the second, there are the data bases, useful as extension to the designer memory, so that he or she, always has suitable sources to translate or to process the ideas generated with the creativity techniques, turning them useful ideas to solve the design problem.
85

Contributions to an advanced design of a Policy Management System

Reyes Muñoz, María Angélica 04 July 2003 (has links)
de la TesisLas redes de hoy en día presentan un gran crecimiento, una alta complejidad de gestión y los nuevos servicios tienen requerimientos cada vez más estrictos. Es por ello que las plataformas de gestión de la década pasada resultan inadecuadas en los nuevos escenarios de red. Esta Tesis es una contribución a los nuevos esquemas de gestión para redes de gran escala, en especial es una contribución a los sistemas de gestión basados en políticas, sin perder por ello, la compatibilidad con los sistemas de gestión que se ocupan actualmente como por ejemplo SNMP, la gestión basada en agentes, etc. Las investigaciones relacionadas hasta ahora con los sistemas de gestión basados en políticas se enfocan principalmente en la gestión de recursos locales y en el control de admisión. La Tesis que se sustenta en este trabajo ofrece una perspectiva de la utilización de las políticas en un contexto más amplio, se propone una arquitectura para la gestión de red utilizando directorios y roles de políticas, analizando las políticas desde su fase de diseño hasta su configuración en los elementos físicos de la redSe considera que la creación de políticas pueden llevarla a cabo diferentes entidades, por ejemplo cuando las crea el administrador de la red, cuando los propios usuarios crean sus políticas (políticas personalizadas), o bien cuando la red basándose en un conjunto de políticas previamente definidas crea a partir de ellas nuevas políticas (metapolíticas). En esta Tesis la representación de las políticas de alto nivel se basa en los modelos propuestos por el IETF y DMTF, el Policy Core Information Model (PCIM) y sus extensiones (PCIMe). Se propone un esquema de clases orientadas a objetos para el almacenamiento de las políticas en un directorio LDAP (Lightweight Directory Access Protocol). Este esquema es una de las contribuciones que está Tesis realiza, la cual se ve reflejada en un draft realizado en conjunción con el grupo de trabajo de políticas del IETF.Debido a que no es posible implementar directamente las políticas de alto nivel en los elementos físicos de la red es necesario establecer un conjunto de parámetros de configuración de red que definan la política que debe aplicarse. Para resolver este mapeo se crearon perfiles SLS (Service Level Specification) basados en la especificación de nivel de servicio que el usuario acuerda con el proveedor de servicio Internet. En la implementación realizada se decidió utilizar cuatro perfiles, sin embargo la granularidad que se elija en la creación de perfiles SLS se deja abierta para que el administrador de la red cree los perfiles necesarios de acuerdo con las características topológicas de la red, los objetivos empresariales, etc.El directorio LDAP que se utiliza como repositorio de políticas almacena cientos o miles de políticas que son necesarias para resolver las diferentes tareas de gestión involucradas en un sistema de redes heterogéneas, esto puede afectar la ejecución del sistema, por lo tanto, se diseñaron métodos basados en roles de políticas para seleccionar la política o el conjunto de políticas adecuado que debe implementarse en la red en un momento especifico. Para resolver los conflictos que puedan ocurrir entre las políticas seleccionadas y evitar inconsistencias en la red, se crearon diversos módulos para la prevención y resolución de conflictos entre políticas. El primer proceso interviene en la creación de las políticas detectando conflictos sintácticos, es decir, se analiza que la política este correctamente diseñada y que pueda ser interpretada sin problemas por la red, posteriormente se verifica que la política pueda implementarse en los elementos de la topología de red que se utilice y que cubra los objetivos empresariales existentes.Para el caso de conflictos que puedan ocurrir en tiempo de ejecución se diseñó un método basado en espacios hiper-geométricos que permiten identificar un conflicto potencial e indicar la política adecuada que debe implementarse en la red. Dicho método está basado en una serie de métricas propuestas para definir cada servicio. Se realiza en la Tesis una aplicación de dicho método para el encaminamiento basado en restricciones de Calidad de Servicio en una red con Servicios Diferenciados y MPLS. / In today's telecommunications world the networks offer several new services involving higher and higher requirements, it means an increment of management complexity that cannot be adequately solved with the management platforms of previous years. This thesis is a contribution to new management schemes for big-scale networks; especially it is a set of contributions to the Policy-Based Management Systems (PBMS) without loosing compatibility with the current management systems such as SNMP, agent-based management, etc.Current research mainly proposes the use of policies to configure network local devices and admission control. This thesis works on a wide perspective about the use of policies. An efficiently architecture for network management on the basis of directories and policy roles is proposed, also there is a full analysis of policies from its design to its implementation in the network elements. The creation of policies can be carried out by different entities, for example network administrators, users (personalized policies) and when the network itself creates own policies based on a previous set of policies (metapolicies). In this thesis the representation of high-level policies is based on the Policy Core Information Model (PCIM) and their extensions (PCIMe) from the DMTF and the IETF. Policies are stored in a directory using the Lightweight Directory Access Protocol (LDAP) via an object oriented classes model designed in this thesis. These results led to an Internet draft for the policy-working group of the IETF.Because of direct implementation of high-level policies in the network elements it is not possible, it is necessary to establish a set of configuration parameters that define the policy that has to be enforced in the network. The methodology to map high-level policies to low-level policies is detailed in this thesis. Mapping processes involve the use of policy roles and profiles that come from Service Level Specifications (SLS) that users agree with the network. The implementation of the management system uses four SLS profiles but it is scalable to allow increasing profiles according to different aspects such as new services offered by the network, topology of the network, business goals, etc.The policy architecture manages heterogeneous interconnected networks, for this reason policy repositories have to be able of storing hundreds or thousands of policies in order to get the desired behavior in the entire network. Due to the fact that policy decision points have to choose adequate policies to apply in the network from a very big set of policies, the network performance could be affected. This thesis proposes an efficient selection and evaluation process on the basis of both, policy roles and the network status in a specific time.To solve possible conflicts that can occur between selected policies and avoid system inconsistencies, a set of models for the prevention and resolution of conflicts between policies is proposed. Prevention process has an algorithm to avoid syntactic conflicts and edition of new policies that produce potential conflicts with previous defined policies. Prevention process also considers congruency among policies, business goals and network topology.Conflict resolution process solves conflicts occurring during the performance of the system, this method is based on hyper geometrical spaces and policy roles to select the adequate policy, from the conflicting policies. These methods are presented in the Thesis with an application in a routing system with Quality of Service (QoS) restrictions into a network scenario based on Differentiated Services and the Multi Protocol Label Switching (MPLS).
86

Esquemes per a compartir secrets

Sáez, Germán 30 July 1998 (has links)
Aquesta tesi ha estat destacada amb la menció de PREMI EXTRAORDINARI DE DOCTORAT en l'àmbit de MATEMÀTIQUESCurs 1997 - 98 / A la present tesi ens hem ocupat fonamentalment de l'estudi matemàtic dels esquemes per a compartir secrets en les seves vessants de l'estudi de la taxa d'informació i de l'estudi dels esquemes segurs enfront l'acció de mentiders. Com a tema complementari hem estudiat la qüestió de l'arrel cúbica a l'anell dels enters mòdul m. Tots dos temes s'enquadren dins de la Criptologia.Pel que fa l'estudi dels esquemes per a compartir secrets, els nostres objectius han estat la caracterització de les estructures ideals i la fitació de la taxa d'informació òptima per a certes famílies d'estructures d'accés. La primera família estudiada ha estat la de les estructures definides per pesos i llindar. Hem trobat que totes es poden expressar mitjançant pesos i llindar naturals. Hem obtingut una caracterització completa de les de rang 2, és a dir, les que estan determinades per un graf que hem anomenat k-graf. Hem dissenyat un algorisme que les identifica a partir dels graus de cadascun dels vèrtexs i determina els pesos i llindar mínims. A partir de l'estructura d'aquests grafs hem determinat una fita inferior de la taxa d'informació òptima que és de l'ordre de 1/log n (amb n el número de participants), millorant la fita 1/2^{n/2} trobada amb l'únic esquema proposat fins ara per a aquestes estructures, degut a Shamir. A partir d'aquests resultats i mitjançant l'ús del dual d'una estructura hem extés els resultats anteriors a una nova família d'estructures. L'estudi general de les estructures definides per pesos i llindar de rang superior s'ha concentrat en trobar fites superiors i inferiors, especialment per les estructures definides per dos pesos. La segona família que hem estudiat és la de les estructures bipartites. Per les estructures bipartites, hem aconseguit caracteritzar totalment les que són ideals. Aquestes són la família d'estructures de quasi-llindar. Aquesta caracterització de les estructures ideals fa que les estructures de quasi-llindar juguin un paper dins de les estructures bipartites anàleg al paper que juguen els grafs multipartits complets dins de les estructures definides per grafs. Així és equivalent dir que una estructura bipartita és ideal a dir que és de quasi-llindar o a dir que és pot definir amb un esquema d'espai vectorial o a dir que la seva taxa d'informació òptima és més gran que 2/3. Per les estructures bipartites descrivim tècniques típiques de recobriment per tal de trobar fites inferiors de la taxa d'informació. Determinem un algorisme que permet trobar una fita superior de la taxa d'informació. Justifiquem que aquestes fites són ajustades.La següent família d'estructures que hem estudiat ha estat la de les estructures homogènies, obtenint resultats en la fitació inferior de la taxa d'informació. Hem proposat dues construccions d'esquemes per a compartir secrets per estructures homogènies basats en les tècniques de recobriments. Per avaluar les taxes d'informació hem definit el concepte de k-grau d'un participant en una estructura homogènia. Aquest paràmetre és la clau de tot l'estudi de les fites, de les comparacions entre elles i amb les conegudes fins ara. El resultat de la comparació indica que la segona d'elles ens dóna un esquema amb una taxa d'informació millor que la primera, però a canvi la primera utilitza un conjunt de secrets de mesura més realista. La comparació amb les proposades anteriorment mostra que les nostres són millors en la majoria dels casos. L'estudi de les fites superiors per les estructures homogènies l'hem encetat amb les de rang 3, trobant una primera fita superior per una subfamília d'estructures que és del mateix ordre que la fita inferior obtinguda per les nostres construccions. Pels esquemes segurs enfront l'acció de mentiders hem generalitzat els conceptes de seguretat per estructures de llindar al cas d'una estructura qualsevol, tant pel cas en el qual els mentiders no coneixen el secret, com pel cas que sí el coneixen. Hem trobat una fita superior de la taxa d'informació òptima per un esquema en el que una coalició de mentiders és detectada amb una certa probabilitat. Després d'aquest estudi general, hem proposat un esquema per a compartir secrets per a una estructura d'accés de tipus vectorial que detecta l'acció de coalicions de mentiders, que no coneixen el secret, amb una certa probabilitat. La taxa d'informació d'aquest esquema és 1/2, la qual és asímptòticament òptima. Per una estructura de llindar hem proposat un esquema que detecta l'acció de coalicions de mentiders (que sí que coneixen el secret) amb una certa probabilitat. Finalment hem trobat el primer esquema per a una estructura qualsevol que detecta l'acció de coalicions de mentiders (que no coneixen el secret) amb una certa probabilitat.Pel que fa a l'arrel cúbica en el conjunt dels enters mòdul m, hem estudiat l'existència i número d'arrels. Hem generalitzat dos mètodes, dels més potents, pel càlcul de l'arrel quadrada per arrel cúbiques. Aquests són el mètode de Peralta basat en l'ús d'un anell auxiliar i el mètode de Tonelli-Shanks basat en l'ús de subgrups de Sylow. S'ha adjuntat algun comentari per les aplicacions criptogràfiques de les arrels cúbiques. / This thesis is mainly devoted to the study of information rate of secret sharing schemes as well as secret sharing schemes secures against the action of cheaters. As a complement we have studied the problem of cube roots in Z_m.In the first part of our work we study some access structures in a combinatorial way and the boundness of the optimal information rate. We begin with weighted threshold access structures. We state that any of them can be defined with positive integer weights and threshold. We characterize all the rank 2 weighted threshold access structures as a k-graphs, finding minimum integer weights and threshold. We bound the optimal information rate using the complete multipartite covering technique. We extend the above results on characterization and computation of minimum weights and threshold to dual structures after proving the fact that the dual of a weighted threshold structure is a weighted threshold structure. The second family of structures that we studied is the bipartite access structures. We characterize completely the bipartite access structures that can be realized by an ideal secret sharing scheme. We prove that in a bipartite access structure it is equivalent ideal structure, vector space structure and optimal information rate of the structure less than 2/3. Both upper and lower bounds on the optimal information rate of bipartite access structures are given. We also start the general study of multipartite access structure.Using results on bipartite structures we study the information rate of secret sharing schemes whose access structure is defined by two weights and a threshold of arbitrary rank. Some upper and lower bounds are found. Case on more than two weights is considered too.The last family of access structure that we have studied is the homogeneous access structure. We describe two constructions of secret sharing schemes for a such a general class of structures. The first one has a worst information rate than the second one, but on the other hand the size of the secret set is more moderate than the first one. We describe the comparison between our lower bounds on the optimal information rate and on the optimal average information rate as well as comparison with known upper bounds. The results are that our second one are better than the first one and that our bounds are better than the known bound almost for every structure.We have started a study of the upper bounds on the optimal information rate for rank 3 homogenous access structures. We describe a structure that its upper bound is not so far than the lower bound obtained with our second construction.Concerning to the extended capabilities we have studied the schemes secures against the action of cheaters. We have generalized the concepts of secure scheme and robust scheme to any access structure, that several authors have already defined only for threshold structures. We found that for a secure scheme the optimal information rate is upper bounded and we find the bound. We construct a 1/q-secure scheme (for q secrets) asymptotically optimal for a vector space access structure. We compare this scheme with the scheme of Ogata and Kurosawa. Our second scheme is robust realizing a (r,n) threshold structure with probability <= (2r-3)/(q-r). The information rate is 1/3. Finally we propose the first 1/q-secure scheme for any access structure.We have generalized two of the fastest algorithms to take square roots to cube roots in Z_p. The first one is Peralta's algorithm, a probabilistic algorithm based on some properties of a ring. The non probabilistic part of the algorithm runs in log^3 p. The second one is Tonelli-Shanks' algorithm, a probabilistic method based on group theory which runs in log^4 p.
87

A There Dimensional Setting for Strong Discontinuities Modelling in Failure Mechanics

Vieira Chaves, Eduardo Walter 01 April 2003 (has links)
El estudio de la mecánica computacional de fallo ha ganado creciente popularidad en los últimos años. Modelizar el comportamiento poscrítico de estructuras puede alcanzar un grado elevado de complejidad, debido a la multiplicidad de aspectos que es necesario considerar. Desde el punto de vista de la mecánica de medios continuos, el fallo está estrechamente relacionado con la localización de deformaciones. Se dice que un sólido presenta localización de deformaciones cuando existen bandas en las cuales se producen modos de deformación intensos. Este fenómeno ha sido clasificado como una inestabilidad material, ya que está ligado a modelos constitutivos con ablandamiento o con reglas de flujo no asociadas. Un enfoque fenomenológico del problema de localización de deformaciones permite su estudio mediante saltos en el campo de desplazamientos, conocidos como discontinuidades fuertes. Este trabajo propone varias técnicas numéricas que contribuyen a la modelización de discontinuidades fuertes en sólidos bidimensionales dentro del marco de la mecánica de medios continuos. Con este objetivo, se hace una revisión sistemática de los fundamentos teóricos con los cuales se puede emprender el estudio del fallo en estructuras sin salir del ámbito de la mecánica de medios continuos clásica. En primer lugar, mediante el análisis de bifurcación discontinua, se establecen las condiciones necesarias para la aparición de discontinuidades en sólidos. El presente trabajo trata sobre la simulación de la localización de deformaciones en sólidos mediante el método de las discontinuidades fuertes (Strong Discontinuity Approach). Las principales hipótesis de trabajo son la de régimen cuasiestático isotérmico, la de pequeñas deformaciones y rotaciones, y la de homogeneidad e isotropía del material.Esta teoría se desarrolla en el ámbito de la Mecánica de Medios Continuos. En lo referente a la modelización constitutiva, se adopta un modelo de daño isótropo y sus variantes, los cuales pueden utilizarse en la simulación de materiales cuasifrágiles como el hormigón, los cerámicos, las rocas y el hielo.Se presentan los ingredientes básicos de la formulación de elementos finitos con discontinuidades internas en tres dimensiones, además de los ingredientes para la transición del régimen de discontinuidades débiles al de discontinuidades fuertes (modelo de ancho de banda variable).Por otra parte, se realiza un detallado análisis de bifurcación material, el cual nos proporciona la información necesaria para la propagación de discontinuidades.Finalmente, se proponen dos posibles algoritmos de trazado de la discontinuidad.Varios ejemplos numéricos demuestran la eficiencia del método. Además, su concordancia con resultados experimentales se pone de relieve. Este trabajo proporciona las herramientas necesarias para la extensión del método al estudio de ejemplos más complejos que requieren, a su vez, modelos constitutivos más complejos.
88

Efecto del número de opciones de respuesta sobre las propiedades psicométricas de los cuestionarios de personalidad

Kramp Denegri, Uwe Arthur 14 September 2006 (has links)
¿Cuántas opciones de respuesta hay que utilizar para responder un cuestionario de personalidad? Durante más de ochenta años, numerosas investigaciones previas han examinado este tópico sin lograr alcanzar un consenso. El presente trabajo se aborda esta cuestión de forma exhaustiva.MÉTODO:Se aplican dos escalas de personalidad [(Orientación Negativa hacia los Problemas (NPO) del Social Problem Solving Inventory-Revised (SPSI-R) y la escala Satisfacción con la Vida (SWLS)], cada una a una muestra independiente (Estudio A = 746 participantes y Estudio B = 426 participantes), variando el número de opciones de respuesta en dos, tres y cinco alternativas. Cada sujeto debe responder a los tres tipos de formato de respuesta dentro de una misma sesión. Para evitar que éstos noten que están contestando el mismo cuestionario en más de una ocasión, cada escala experimental se inserta dentro de una batería de "tests". De esta forma, se construyen tres baterías de "test" (una para cada muestra), contrabalanceando la aparición de los distintos formatos de respuesta y manteniendo constante el resto de las condiciones experimentales. Por otro lado, se utiliza como criterio para evaluar el efecto del número de opciones de respuesta sobre las propiedades psicométricas las escalas NPO y SWLS tanto su fiabilidad (consistencia interna y estabilidad temporal) como su validez (evidencia basada en la estructura interna y evidencia basada en el grado de relación con otras variables).Estas se evalúan desde tres modelos psicométricos diferentes: Teoría Clásica de los Tests (TCT), Análisis Factorial de los Ítems (AFI) y Teoría de Respuesta a los Ítems (TRI).APORTE:Tres son los principales aportes de este trabajo de Tesis de Doctorado. En primer lugar, se aplican dos escalas de personalidad diferentes a muestras independientes, manteniendo constante el resto de las condiciones experimentales. Con ello se espera controlar que los resultados observados son producto del efecto ejercido por los distintos formatos de respuesta utilizados y no por otras variables. En segundo lugar, cada sujeto contesta su respectiva escala experimental utilizando los tres formatos de respuesta propuestos. Ello permite disponer de información directa respecto de cómo ha respondido realmente cada sujeto -y no sólo con una estimación indirecta, derivada de la comparación de muestras independientes, como ha sido lo habitual hasta este momento. Finalmente, el análisis de las propiedades psicométricas de las escalas experimentales se aborda por primera vez, simultáneamente, desde tres perspectivas diferentes (TCT, AFI y TRI). Esto permite controlar que los resultados observados no son consecuencia inmediata del modelo psicométrico utilizado, sino producto del efecto ejercido por los distintos formatos de respuesta propuestos. El análisis de la validez de los cuestionarios se realiza aplicando Modelos de Ecuaciones Estructurales (SEM).RESULTADOS Y DISCUSIÓN:En su conjunto, los resultados observados sugieren que el número de opciones de respuesta afecta de forma leve a moderada la estructura interna y, parcialmente, la consistencia interna de las escalas utilizadas en este trabajo de Tesis de Doctorado. Por el contrario, el número de alternativas de respuesta no afecta aspectos tales como la evidencia basada en la relación con otras variables o la estabilidad temporal (estabilidad test-retest) de las escalas analizadas.PALABRAS CLAVE:Número óptimo de opciones de respuesta, Cuestionarios de personalidad, Satisfaction with Life Scale (SWLS), Social Problem-Solving Inventory-Revised (SPSI-R), Teoría Clásica de los Tests (TCT), Análisis Factorial de los Ítems (AFI), Teoría de Respuesta a los Ítems (TRI), Modelos de Ecuaciones Estructurales (SEM), Propiedades psicométricas, Fiabilidad, Validez, evidencia basada en la estructura interna, evidencia basada en la relación con otras variables, consistencia interna, estabilidad temporal. / Numerous studies have attempted to answer the question of what is the optimal number of response options in personality questionnaires. Some authors argue that the number of response options do not affect at all the reliability or the validity of the measurement tool, whereas others suggest to use from 2- to 25-response alternatives in order to maximize the psychometric properties of the instrument. The present PhD Dissertation work attempts to aboard in an exhaustive manner this question.METHOD:All subjects have responded, within the same session, a questionnaire with two-, three- and five-response options. In order to avoid that the subjects notice that they are responding to the same questionnaire, within a same session, these are applied within a tests battery. Likewise, two independent samples (A and B) and two personality questionnaires [Negative Problem Orientation (NPO) of the Social Problem Solving Inventory-Revised (SPSI-R) and Satisfaction with Life Scale (SWLS)] are used, to ensure that the answer does not depend on the instrument investigated. Both, the reliability and validity of the instrument will be used as criteria to determine the optimum number of response alternatives. Finally, the reliability and validity of each response format is analysed using three different psychometric models: "Classical Test Theory" (CTT), "Item Factor Analysis" (IFA), and "Item Response Theory" (IRT). Add, we used Structural Equation Models (SEM) to analyze the validity of the NPO and SWLS scales.RESULTS AND DISCUSSION:As a whole, the observed results suggest that the number of response options affects form slight to moderate aspects such as the internal structure and, partially, the internal consistency of the scales analyzed in this work. Contrary, the number of response alternatives does not affect aspects such as the evidence based on the relation with other variables or the temporary stability (test-retest stability) of the examined scales.KEYWORDS:Optimal number of response options, Classical Tests Theory (CCT), Item Factor Analysis (IFA), Item Response Theory (IRT), Structural Equation Models (SEM), Psychometric properties, Reliability, Validity, Personality rating scales, Satisfaction with Life Scale (SWLS), Social Problem-Solving Inventory-Revised (SPSI-R), evidence based on the internal structure, evidence based on the relation with other variables, internal consistency, temporary stability.
89

Characterization and modeling of the purkinje system for biophysical simulations

Romero García, Daniel 18 January 2016 (has links)
The usability of computer models of the heart depends mostly on their capacity to accurately represent heart anatomy, microstructure and function. However, integrating such a variety of biological data is often not possible. This is the case of the cardiac conduction system (CCS), which is responsible for the fast and coordinated distribution of the electrical impulses. The CCS cannot be observed in-vivo but it is mandatory in several cardiac modeling applications involving arrhythmias. The aims of this thesis are to show the importance of explicitly modeling the CCS structure and function for an accurate description of the electrical activation of the ventricles and to present a novel technique to build automatically a CCS structure that meets physiological observations. Pursuing that goal has required a multidisciplinary effort to build models for cardiac electrophysiology, and imaging techniques to acquire and analyze data of the CCS at different scales. / La usabilidad de modelos computacionales cardíacos depende del poder representar con precisión la anatomía del corazón, su microestructura y su función. Sin embargo, la integración de tal variedad de datos biológicos no siempre es posible. Este es el caso del sistema de conducción cardiaco (CCS), que es responsable de la distribución rápida y coordinada de los impulsos eléctricos. El CCS no puede ser observado in vivo pero es imprescindible en los modelos del corazón que involucran las arritmias. Los objetivos de esta tesis son el modelar la estructura y función del CCS para obtener una descripción precisa de la activación eléctrica del corazón y el construir la estructura de un CCS que cumpla con las observaciones fisiológicas. La persecución de este objetivo ha requerido un esfuerzo multidisciplinar para construir modelos de la electrofisiología cardiaca y las técnicas de imagen necesarias para adquirir y analizar datos del CCS a diferentes escalas.
90

Revascularización percutánea en el tratamiento de la cardiopatía isquémica crónica estable: aspectos asistenciales, técnicos y de seguridad

Casanova Sandoval, Juan Manuel 26 November 2015 (has links)
Al nostre estudi avaluem l' estratègia de revascularització percutània com a tractament de la cardiopatia isquèmica crònica i estable al nostre medi. Estudiem els predictors independents per a la prolongació de l'ingrés després de la realització de l'intervencionisme coronari percutani. Amb això es dibuixen els criteris d'exclusió d'un programa d'angioplàstia ambulatòria. També s'identifiquen els pacients amb un major risc per a reingressar al mes i al cap de tres mesos post procediment. Finalment s'analitza la mortalitat a l'any. Els predictors independents per la prolongació de l'ingrés són: realitzar el procediment via femoral, que a la nostra població selecciona pacients amb procediments més complexos, els pacients de més edat, la hipertensió arterial, la insuficiència renal crònica, la malaltia vascular perifèrica i el tractament del tronc coronari esquerra. L'accés femoral i realitzar intervencionisme per insuficiència cardíaca o miocardiopatia dilatada, varen augmentar de forma significativa el risc de reingrés al mes. Els factors que es relacionen de manera significativa amb la mortalitat a l'any per totes les causes, varen ser el reingrés al mes, l'intervencionisme per insuficiència cardíaca, la no utilització de stent farmacoactiu i tractar un vas diferent de la coronària dreta. / En nuestro estudio evaluamos la estrategia de la revascularización percutánea como tratamiento de la cardiopatía isquémica crónica y estable en nuestro medio. Estudiamos los predictores independientes para la prolongación del ingreso tras realización de intervencionismo coronario percutáneo. Con ello se dibujan los criterios de exclusión de un programa de angioplastia ambulatoria. También se identifican los pacientes de mayor riesgo para reingresar al mes y tres meses postprocedimiento. Finalmente se analiza la mortalidad al año. Los predictores independientes para la prolongación del ingreso son: realizar el procedimiento por vía femoral, que en nuestra población selecciona pacientes con procedimientos más complejos, los pacientes más añosos, la hipertensión arterial, la insuficiencia renal crónica, la enfermedad vascular periférica y el tratamiento de tronco coronario izquierdo. El acceso femoral y realizar intervencionismo por insuficiencia cardiaca o miocardiopatía dilatada, aumentaron de manera significativa el riesgo de reingreso al mes. Los factores que se relacionaron de manera significativa con la mortalidad al año por todas las causas fueron el reingreso al mes, el intervencionismo por insuficiencia cardiaca, la no utilización de stent farmacoactivo y el tratar un vaso diferente a la coronaria derecha. / Our study evaluates percutaneous revascularization strategy as a treatment for chronic stable cardiac ischemic disease in our environment. We study independent predictors for prolonging hospitalization after percutaneous coronary revascularization. These predictors are used in the design of exclusion criteria for a same day discharge angioplasty program. We also identify the profile of patients who have a higher risk for readmission at one month and at three months. Finally, we analyse mortality after one year follow up. The independent predictors for prolonging hospitalization were femoral approach (this approach is used for more complex procedures in our sample), older people, hypertension, chronic renal failure, peripheral vascular disease and percutaneous treatment of left main coronary artery. Femoral approach and percutaneous revascularization for the treatment of heart failure or dilated cardiomyopathy were significant factors for one-month readmission. Significant factors related to one-year overall mortality were one-month readmission, percutaneous coronary intervention in heart failure context, non-use of drug eluting stent and the treatment of a different vessel than right coronary artery.

Page generated in 0.3204 seconds