Spelling suggestions: "subject:"informàtica"" "subject:"informàticad""
71 |
Estudio experimental del comportamiento de paredes de obra de fábrica de ladrillo ante la acción de cargas lateralesCharry Ablanque, Javier Alberto 19 February 2010 (has links)
Las construcciones de estructura portante a base de paredes de carga de obra de fábrica de ladrillo o piedra reciben una atención investigadora creciente debido a su importancia como parte del parque edificado existente. Gran parte del parque edificado de nuestras ciudades, incluyendo gran cantidad del patrimonio histórico, está formado por construcciones basadas en este tipo estructural. La seguridad real de tales construcciones, especialmente ante acciones horizontales, constituye un motivo creciente de preocupación en aquellas zonas susceptibles de experimentar tales efectos. Actualmente se posee un mayor conocimiento del hormigón y el acero y por el contrario, un conocimiento muy escaso de la obra de fábrica, a pesar de que su uso como elemento fundamental de la construcción se remonte a épocas antiguas, y se haya mantenido hasta hace pocas décadas como principal material estructural utilizado en la construcción de edificios. Por este motivo el objetivo principal de esta tesis es el de caracterizar experimentalmente los aspectos fundamentales de la respuesta resistente de sistemas estructurales formados por paredes de carga de obra de fabrica de ladrillo bajo acciones horizontales. Es también parte de esta investigación el estudio de la viabilidad del análisis experimental de paredes de obra de fábrica de ladrillo a escala reducida. Para alcanzar los objetivos planteados un extenso número de campañas experimentales sobre paredes a escala real y reducida, como también sobre modelos de edificios con estructura a base de paredes de carga permitieron estudiar la respuesta bajo la acción de cargas horizontales.Se desarrollaron cinco campañas experimentales sobre paredes de obra de fábrica de ladrillo a escala real y reducida (1:4) bajo estados no uniforme de tensión correspondientes a una primera fase experimental. Cada una de las campañas se dividió en tres etapas principales. En primer lugar se realizaron ensayos sobre los elementos, donde se caracterizan los materiales (ladrillo y mortero), resistencia a compresión (fb, fm), la resistencia a tracción del ladrillo (ttb) obtenida de forma indirecta mediante ensayo a flexión (fxb) y la resistencia a flexión del mortero (fxm). En segundo lugar se realizaron ensayos sobre pequeños ensamblajes mediante probetas constituidas por ensamblajes simples donde se estudia el comportamiento en conjunto de los elementos que conforman la obra de fábrica de ladrillo, ensayos uniaxial de corte, ensayo biaxial de corte y ensayos a compresión. Por ultimo ensayos sobre grandes ensamblajes, donde cinco campañas sobre muros simples a escala real y reducida (1:4) se sometieron a diferentes combinaciones de carga biaxial hasta la rotura.Como segunda fase experimental, tres campañas sobre un mismo número de edificios a escala reducida (1:4) fueron desarrolladas. La estructura portante de los modelos son una simplificación de un edificio de referencia de dos y tres niveles de altura, propia de la ampliación de muchas ciudades europeas entre finales del siglo XIX y mediados del XX. Dichos modelos siguen la típica distribución de muro central y planta limitada por muros de fachada, típico de los ensanches de ciudades europeas.Con el estudio en conjunto de las campañas experimentales ha sido posible contribuir a la caracterización experimental de la respuesta resistente de sistemas estructurales formados por paredes de carga de obra de fábrica de ladrillo bajo la acción de cargas horizontales. Como resultado de dicho estudio se propone un método de cálculo simple para predecir el mecanismo de rotura y la carga ultima cuando las paredes forman parte de la estructura portante de un edificio sometido a carga horizontal. Además se propone una metodología para el desarrollo de ensayos de paredes de obra de fábrica a escala reducida.Como aspecto complementario, se propone un criterio para determinar la resistencia a compresión de la fábrica, teniendo en cuenta la esbeltez de la probeta. / Structural supports' constructions bearing walls, brick - built or stone masonry, are receiving an increasing attention from the researchers, due to its importance as a part of the whole building. This applies to most buildings in our towns, as well as to a large part of our historical patrimony which was built by using the same structural constructions' building model. The effective valuation of those buildings subjected to horizontal loads is a fundamental task in safety. This situation represents an increasing matter of concern, mostly in all sensitive areas in which such effects can be seen and tested. Nowadays we have a better knowledge on concrete and steel but, on the other hand, we do not know much about masonry, even if it has been the main element of construction since ancient ages. This was the main structural material used to construct buildings until few decades ago.The main purpose of this thesis is focused on characterizing in an experimental way the most important aspects of the structural systems' response, brick - built masonry bearing walls, subjected to horizontal loads. This investigation also includes a study on brick-built masonry's viable experimental analysis in a scale model.In order to reach the goals, experimental research programs were leaded in full and scale models, as well as building models with bearing walls structures allowed us to understand the response subjected to horizontal loads.Five experimental research programs dealing with masonry walls brick - built, by using both full scale and scale models (1:4), took place under non uniform stress states corresponding to the first experimental phase. Each program has been divided into three main parts. In the first one shear tests were made on all elements characterizing the materials (brick and mortar), compressive strength (fb, fm), brick tensile strength, (ttb) acquired through flexural strength test, and flexural strength of mortar (fxm). Then, shear test were developed through specimen on small assemblies in which it was studied the ensemble of elements constituting the masonry, uniaxial shear tests, biaxial shear tests and compressive tests. In the last part were developed five research programs on big assemblies whose topics were simple walls in full and scale model
|
72 |
Learning automata with help.Dediu, Adrian-Horia 14 May 2015 (has links)
Analitzem i proposem diverses versions millorades d’algorismes existents d'aprenentatge d’autòmats finits deterministes. Les nostres millores pertanyen a la categoria d'aprenentatge amb ajuda, amb l'objectiu d'accelerar o influir en la qualitat del procés d'aprenentatge. Una part considerable del nostre treball es basa en un enfocament pràctic; per a cada algorisme que tractem, hi ha resultats comparatius obtinguts després de la implementació i posada a prova dels processos d'aprenentatge en conjunts d'autòmats generats aleatòriament. Després de fer un gran nombre d’experiments, presentem gràfics i dades numèriques amb els resultats comparats que hem obtingut.
Estudiem algorismes pertanyents a dos models diferents d'aprenentatge: actiu i passiu. Un augment del nombre de símbols de sortida permet un nombre reduït de preguntes; una orientació al llarg del procés d'aprenentatge dóna una única resposta per a diverses preguntes; la millora de l'estructura d'aprenentatge permet una millor exploració de l'entorn d'aprenentatge.
En el marc de l'aprenentatge actiu, un algorisme d'aprenentatge amb preguntes modificades i amb un etiquetatge útil no trivial és capaç d'aprendre autòmats sense contraexemples.
Es revisen les preguntes de correcció definint-les com un tipus particular d'etiquetatge. Introduïm correccions minimals, maximals i a l'atzar.
Un algorisme clàssic aprèn autòmats típics amb recorreguts aleatòries dins del marc d'aprenentatge passiu en línia. Per l'algorisme original, no podem estimar el nombre d'assaigs necessaris per aprendre completament un autòmat per alguns casos. Afegint transicions inverses al graf subjacent de l'autòmat, el recorregut aleatori actúa com un recorregut aleatori en un graf no dirigit. L'avantatge és que, per a aquests grafs, hi ha un límit superior polinòmic per al temps de cobertura. El nou algorisme és encara un algorisme eficient amb un límit superior polinòmic pel nombre d'errors per defecte i el nombre d'assaigs. / Analizamos y proponemos varias versiones mejoradas de los algoritmos de aprendizaje existentes para autómatas finitos deterministas. Nuestras mejoras pertenecen a la categoría de aprendizaje com ayuda, con el objetivo de acelerar, o influir sobre la calidad del proceso de aprendizaje. Una parte considerable de nuestro trabajo se basa en un enfoque práctico; para cada algoritmo que se presenta, existen resultados comparativos obtenidos después de la implementación y puesta a prueba de los procesos de aprendizaje en conjuntos de autómatas generados aleatoriamente. Después de muchos experimentos, presentamos gráficos y datos numéricos con los resultados comparados que hemos obtenido .
Estudiamos algoritmos pertenecientes a dos modelos diferentes de aprendizaje: activo y pasivo. Un aumento del número de símbolos de salida permite un número reducido de consultas; una orientación parcial a lo largo del camino de aprendizaje da los resultados de varias consultas como uno solo; la mejora de la estructura de aprendizaje permite una mejor exploración del entorno de aprendizaje.
En el marco del aprendizaje activo, un algoritmo de aprendizaje com consulta modificada y dotado de un etiquetado de ayuda no trivial es capaz de aprender autómatas sin contraejemplos.
Se revisan las consultas de corrección definiéndolas como tipos particulares de etiquetado. Introducimos correcciones minimales, maximales y al azar.
Un algoritmo clásico aprende autómatas típicos de recorridos aleatorios en el marco del aprendizaje pasivo en línea. Para el algoritmo original, no podemos estimar el número de intentos necesarios para aprender completamente el autómata para algunos casos. Añadiendo transiciones inversas al grafo subyacente del autómata, el recorrido aleatorio actúa como un recorrido aleatorio en un grafo no dirigido. La ventaja es que, para estos grafos, existe un límite superior polinómico para el tiempo de cobertura. El nuevo algoritmo es todavía un algoritmo eficiente con límites superiores polinómicos para el número de errores por defecto y el número de intentos. / We analyze and propose several enhanced versions of existing learning algorithms for deterministic finite automata. Our improvements belong to the category of helpful learning, aiming to speed up, or to influence the quality of the learning process. A considerable part of our work is based on a practical approach; for each algorithm we discuss, there are comparative results, obtained after the implementation and testing of the learning processes on sets of randomly generated automata. After extended experiments, we present graphs and numerical data with the comparative results that we obtained.
We study algorithms belonging to two different learning models: active and passive. An increased number of output symbols allows a reduced number of queries; some partial guidance along the learning path gives the results of several queries as a single one; enhancing the learning structure permits a better exploration of the learning environment.
In the active learning framework, a modified query learning algorithm benefiting by a nontrivial helpful labeling is able to learn automata without counterexamples.
We review the correction queries defining them as particular types of labeling. We introduce minimal corrections, maximal corrections, and random corrections.
A classic algorithm learns typical automata from random walks in the online passive learning framework. For the original algorithm, we cannot estimate the number of trials needed to learn completely a target automaton for some cases. Adding inverse transitions to the underlying graph of the target automaton, the random walk acts as a random walk on an undirected graph. The advantage is, that for such graphs, there exists a polynomial upper bound for the cover time. The new algorithm is still an efficient algorithm with a polynomial upper bound for the number of default mistakes and the number of trials.
|
73 |
Robust control of systems subjected to uncertain disturbances and actuator dynamicsVillamizar Mejia, Rodolfo 17 March 2005 (has links)
Esta tesis está enfocada al diseño y validación de controladores robustos que pueden reducir de una manera efectiva las vibraciones structurales producidas por perturbaciones externas tales como terremotos, fuertes vientos o cargas pesadas. Los controladores están diseñados basados en teorías de control tradicionalamente usadas en esta area: Teoría de estabilidad de Lyapunov, control en modo deslizante y control clipped-optimal, una técnica reciente mente introducida : Control Backstepping y una que no había sido usada antes: Quantitative Feedback Theory. La principal contribución al usar las anteriores técnicas, es la solución de problemas de control estructural abiertos tales como dinámicas de actuador, perturbaciones desconocidas, parametros inciertos y acoplamientos dinámicos. Se utilizan estructuras típicas para validar numéricamente los controladores propuestos. Especificamente las estructuras son un edificio de base aislada, una plataforma estructural puente-camión y un puente de 2 tramos, cuya configuración de control es tal que uno o mas problemas abiertos están presentes. Se utilizan tres prototipos experimentales para implementar los controladores robustos propuestos, con el fin de validar experimentalmente su efectividad y viabilidad. El principal resultado obtenido con la presente tesis es el diseño e implementación de controladores estructurales robustos que resultan efectivos para resolver problemas abiertos en control estructural tales como dinámicas de actuador, parámetros inciertos, acoplamientos dinámicos, limitación de medidas y perturbaciones desconocidas. / This dissertation focuses on the design and validation of robust controllers that can effectively reduce vibrations in structures due to external disturbances such as earthquakes, strong winds or heavy dynamic loads. The design of the controllers is based on control theories traditionally used in structural control: Lyapunov stability theory, Sliding Mode Control and Clipped-Optimal Control, another recently introduced: Backstepping Control and one that had not been used before in this control area: Quantitative Feedback Theory. The main advantage by using these techniques is that some open structural problems such as actuator dynamics, uncertain disturbances, uncertain parameters, measurement limitation and dynamic coupling can be treated. Numerical validation of the controllers proposed is performed on typical structural models. A 10-story base isolated structure, a truck-bridge structural platform and a two-span bridge are used. Their control scheme contains inherit one o more open structural control problems. Three experimental prototypes are used to implement the robust controllers proposed, in order to experimentally verify their viability and effectiveness. The main contribution of the present thesis is obtaining robust structural controllers, numerically and experimentally verified, that account structural control problems such as actuator dynamics, uncertain parameters, dynamic coupling, measurement limitations and unknown disturbances and based on novel control techniques.
|
74 |
Ontology based semantic anonymisation of microdataMartínez Lluís, Sergio 26 February 2013 (has links)
The exploitation of microdata compiled by statistical agencies is of great interest for the data mining community. However, such data often include sensitive information that can be directly or indirectly related to individuals. Hence, an appropriate anonymisation process is needed to minimise the risk of disclosing identities and/or confidential data. In the past, many anonymisation methods have been developed to deal with numerical data, but approaches tackling the anonymisation of non-numerical values (e.g. categorical, textual) are scarce and shallow. Since the utility of this kind of information is closely related to the preservation of its meaning, in this work, the notion of semantic similarity is used to enable a semantically coherent interpretation. Ontologies are the basic pillar to propose a semantic framework that enables the management and transformation of categorical attributes, defining different operators that take into account the underlying semantics of the data values. The application of the operators defined in this semantic framework to the data anonymisation task allows the development of three anonymisation methods especially tailored to categorical attributes: Semantic Recoding, Semantic and Adaptive Microaggregation and Semantic Resampling. In addition a new Semantic Record linkage method is proposed, which considers data semantics in order to more accurately evaluate the disclosure risk of anonymised non-numerical data. The proposed methods have been extensively evaluated with real datasets with encouraging results. Experimental results show that a semantic-based treatment of categorical attributes significantly improves the semantic interpretability and utility of the anonymised data. / L’explotació de microdades compilades pels Instituts d’Estadística és de gran interès per la comunitat de mineria de dades. No obstant, aquest tipus de dades sovint inclouen informació sensible que pot ser, directa o indirectament, relacionada amb els individus. Per tant, es necessita fer un procés d’anonimització apropiat per minimitzar el risc de revelació de les identitats i/o les dades confidencials. En el passat, molts mètodes d’anonimització han estat desenvolupats per tractar dades numèriques, però els enfocaments que aborden l’anonimització de dades no numèriques (per exemple dades categòriques) són escassos i superficials. Com que la utilitat d’aquest tipus de dades està properament relacionada amb la preservació del seu significat, en aquest treball, s’utilitza la noció de similitud semàntica per aconseguir una interpretació semàntica coherent. Les ontologies són el pilar basic per proposar un entorn de treball semàntic que permeti el manegament i transformació d’atributs categòrics, definint diversos operadors que tenen en compte la semàntica subjacent dels valors de les dades. La aplicació dels operadors definits en aquest entorn de treball semàntic per tasques d’anonimització, permet el desenvolupament de tres mètodes dissenyats especialment per atributs categòrics: Recodificació semàntica, Microagregació adaptativa i Remostreig semàntic. A més, es proposa un nou mètode d’enllaçaments de registres, el qual considera la semàntica de les dades amb la finalitat d’avaluar d’una forma més precisa el risc de revelació de les dades no numèriques anonimitzades. Els mètodes proposats han sigut avaluats extensament amb conjunts de dades reals amb resultats encoratjadors. Els resultats experimentals mostren que el tractament basat en la semàntica d’atributs categòrics millora significativament la interpretabilitat semàntica i la utilitat de les dades anonimitzades. / La explotación de microdatos compilados por los Institutos de Estadística es de gran interés para la comunidad de minería de datos. No obstante, este tipo de datos frecuentemente incluyen información sensible que puede ser, directa o indirectamente, relacionada con los individuos. Por tanto, se necesita realizar un proceso de anonimización apropiado para minimizar el riesgo de revelación de las identidades y/o los datos confidenciales. En el pasado, muchos métodos de anonimización han sido desarrollados para tratar datos numéricos, pero los enfoques que abordan la anonimización de datos no numéricos (por ejemplo datos categóricos) son escasos y superficiales. Como que la utilidad de este tipo de datos está cercanamente relacionada con la preservación de su significado, en este trabajo se utiliza la noción de similitud semántica para conseguir una interpretación semántica coherente. Las ontologías son el pilar básico para proponer un entorno de trabajo semántico que permita el manejo y transformación de atributos categóricos, definiendo diversos operadores que tienen en cuenta la semántica subyacente de los valores de los datos. La aplicación de los operadores definidos en este entorno de trabajo semántico para tareas de anonimización, permite el desarrollo de tres métodos diseñados especialmente para atributos categóricos: Recodificación semántica, Microagregación adaptativa y Remuestreo semántico. Además, se propone un nuevo método de enlazamiento de registros, el cual considera la semántica de los datos con la finalidad de evaluar de una forma más precisa el riesgo de revelación de loa datos no numéricos anonimizados. Los métodos propuestos han sido evaluados extensamente con conjuntos de datos reales con resultados alentadores. Los resultados experimentales muestran que el tratamiento basado en la semántica de atributos categóricos mejora significativamente la interpretabilidad semántica y la utilidad de los datos anonimizados.
|
75 |
Ontology based semantic clusteringBatet Sanromà, Montserrat 15 February 2011 (has links)
Els algoritmes de clustering desenvolupats fins al moment s’han centrat en el processat de dades numèriques i categòriques, no considerant dades textuals. Per manegar adequadament aquestes dades, es necessari interpretar el seu significat a nivell semàntic. En aquest treball es presenta un nou mètode de clustering que es capaç d’interpretar, de forma integrada, dades numèriques, categòriques i textuals. Aquest últims es processaran mitjançant mesures de similitud semàntica basades en 1) la utilització del coneixement taxonòmic contingut en una o diferents ontologies i 2) l’estimació de la distribució de la informació dels termes a la Web. Els resultats mostren que una interpretació precisa de la informació textual a nivell semàntic millora els resultats del clustering i facilita la interpretació de les classificacions. / Clustering algorithms have focused on the management of numerical and categorical data. However, in the last years, textual information has grown in importance. Proper processing of this kind of information within data mining methods requires an interpretation of their meaning at a semantic level. In this work, a clustering method aimed to interpret, in an integrated manner, numerical, categorical and textual data is presented. Textual data will be interpreted by means of semantic similarity measures. These measures calculate the alikeness between words by exploiting one or several knowledge sources. In this work we also propose two new ways of compute semantic similarity based on 1) the exploitation of the taxonomical knowledge available on one or several ontologies and 2) the estimation of the information distribution of terms in the Web. Results show that a proper interpretation of textual data at a semantic level improves clustering results and eases the interpretability of the classifications
|
76 |
Beyond trust. Using fuzzy contextual filters for reliability assessment in multi agent systemsAcebo Peña, Esteve del 27 May 2011 (has links)
Trust modeling is widely recognized as an aspect of essential importance in the construction of agents and multi agent systems (MAS). As a consequence, several trust formalisms have been proposed over the last years. All of them have a limitation: they can determine the trustworthiness or untrustworthiness of the information received from a given agent, but they don't supply mechanisms for correcting this information, in the case of it being unaccurate, in order to extract some utility from it. In order to overcome this limitation, this thesis introduces the concept of reliability as a generalization of trust, and presents Fuzzy Contextual Filters (FCF) as reliability modeling methods loosely based on system identification and signal processing techniques. This thesis illustrates their applicability to two domains: the appraisal variance estimation problem in the Agent Reputation and Trust (ART) testbed and Bar Systems, a class of optimization algorithms for reactive MAS / El modelatge de la confiança és àmpliament reconegut com un aspecte d'importància fonamental en la construcció dels agents i de sistemes d'agents múltiples (MAS). Com a conseqüència, s'han proposat en els últims anys diversos formalismes de confiança. Tots ells tenen una limitació: que puguin determinar la fiabilitat o la manca de credibilitat de la informació rebuda d'un agent determinat, però no subministrarà els mecanismes per a la correcció d'aquesta informació, en el cas que sigui inexacte, per tal d'extreure alguna utilitat ella. Per superar aquesta limitació, aquesta tesi presenta el concepte de fiabilitat com una generalització de la confiança, i presenta Filtres contextuals Fuzzy (FCF) com a mètodes de modelatge fiabilitat vagament basada en la identificació de sistemes i tècniques de processament de senyal. En aquesta tesi s'il·lustra la seva aplicació a dos dominis: el problema d'estimació de variància d'avaluació de la reputació d'agent i Trust (ART) banc de proves i Bar Systems, una classe d'algorismes d'optimització per reactiva MAS
|
77 |
Recursos anchos: una técnica de bajo coste para explotar paralelismo agresivo en códigos numéricosLópez Álvarez, David 15 December 1998 (has links)
Els bucles son la part que més temps consumeix en les aplicacions numèriques. El rendiment dels bucles està limitat tant pels recursos oferts per l'arquitectura com per les recurrències del bucle en la computació. Per executar més operacions per cicle, els processadors actuals es dissenyen amb graus creixents de replicació de recursos (tècnica de replicació) para ports de memòria i unitats funcionals. En canvi, el gran cost en termes d'àrea i temps de cicle d'aquesta tècnica limita tenir alts graus de replicació: alts valors en temps de cicle contraresten els guanys deguts al decrement en el nombre de cicles, mentre que alts valors en l'àrea requerida poden portar a configuracions impossibles d'implementar. Una alternativa a la replicació de recursos, és fer los més amples (tècnica que anomenem "widening"), i que ha estat usada en alguns dissenys recents. Amb aquesta tècnica, l'amplitud dels recursos s'amplia, fent una mateixa operació sobre múltiples dades. Per altra banda, alguns microprocessadors escalars de propòsit general han estat implementats amb unitats de coma flotants que implementen la instrucció sumar i multiplicar unificada (tècnica de fusió), el que redueix la latència de la operació combinada, tanmateix com el nombre de recursos utilitzats. A aquest treball s'avaluen un ampli conjunt d'alternatives de disseny de processadors VLIW que combinen les tres tècniques. S'efectua una projecció tecnològica de les noves generacions de processadors per predir les possibles alternatives implementables. Com a conclusió, demostrem que tenint en compte el cost, combinar certs graus de replicació i "widening" als recursos hardware és més efectiu que aplicar únicament replicació. Així mateix, confirmem que fer servir unitats que fusionen multiplicació i suma pot tenir un impacte molt significatiu en l'increment de rendiment en futures arquitectures de processadors a un cost molt raonable. / Loops are the main time-consuming part of numerical applications. The performance of the loops is limited either by the resources offered by the architecture or by recurrences in the computation. To execute more operations per cycle, current processors are designed with growing degrees of resource replication (replication technique) for memory ports and functional units. However, the high cost in terms of area and cycle time of this technique precludes the use of high degrees of replication. High values for the cycle time may clearly offset any gain in terms of number of execution cycles. High values for the area may lead to an unimplementable configuration. An alternative to resource replication is resource widening (widening technique), which has also been used in some recent designs in which the width of the resources is increased (i.e., a single operation is performed over multiple data). Moreover, several general-purpose superscalar microprocessors have been implemented with multiply-add fused floating point units (fusion technique), which reduces the latency of the combined operation and the number of resources used. On this thesis, we evaluate a broad set of VLIW processor design alternatives that combine the three techniques. We perform a technological projection for the next processor generations in order to foresee the possible implementable alternatives. From this study, we conclude that if the cost is taken into account, combining certain degrees of replication and widening in the hardware resources is more effective than applying only replication. Also, we confirm that multiply-add fused units will have a significant impact in raising the performance of future processor architectures with a reasonable increase in cost.
|
78 |
ProCLAIM: an argument-based model for deliberating over safety critical actionsTolchinsky, Pancho 09 July 2012 (has links)
In this Thesis we present an argument-based model – ProCLAIM – intended to provide a setting for heterogeneous agents to deliberate on whether a proposed action is safe. That is, whether or not a proposed action is expected to cause some undesirable side effect that
will justify not to undertake the proposed action. This is particularly relevant in safetycritical environments where the consequences ensuing from an inappropriate action may be catastrophic.
For the practical realisation of the deliberations the model features a mediator agent with three main tasks: 1) guide the participating agents in what their valid argumentation moves are at each stage of the deliberation; 2) decide whether submitted arguments should be accepted on the basis of their relevance; and finally, 3) evaluate the accepted arguments in order to provide an assessment on whether the proposed action should or should not be undertaken, where the argument evaluation is based on domain consented knowledge (e.g guidelines and regulations), evidence and the decision makers’ expertise.
To motivate ProCLAIM’s practical value and generality the model is applied in two scenarios: human organ transplantation and industrial wastewater. In the former scenario, ProCLAIM is used to facilitate the deliberation between two medical doctors on whether an available organ for transplantation is or is not suitable for a particular potential recipient (i.e. whether it is safe to transplant the organ). In the later scenario, a number of agents deliberate on whether an industrial discharge is environmentally safe. / En esta tesis se presenta un modelo basado en la Argumentación –ProCLAIM– cuyo n es proporcionar un entorno para la deliberación sobre acciones críticas para la seguridad entre agentes heterogéneos. En particular, el propósito de la deliberación es decidir si los efectos secundario indeseables de una acción justi can no llevarla a cabo. Esto es particularmente relevante en entornos críticos para la seguridad, donde las consecuencias que se derivan de una acción inadecuada puede ser catastró cas.
Para la realización práctica de las deliberaciones propuestas, el modelo cuenta con un agente mediador con tres tareas principales: 1) guiar a los agentes participantes indicando cuales son las líneas argumentación válidas en cada etapa de la deliberación; 2) decidir si los argumentos presentados deben ser aceptadas sobre la base de su relevancia y, por último, 3) evaluar los argumentos aceptados con el n de proporcionar una valoración sobre la seguridad de la acción propuesta. Esta valoración se basa en guías y regulaciones del dominio de aplicación, en evidencia y en la opinión de los expertos responsables de la decisión.
Para motivar el valor práctico y la generalidad de ProCLAIM, este modelo se aplica en dos escenarios distintos: el trasplante de órganos y la gestión de aguas residuales. En el primer escenario el modelo se utiliza para facilitar la deliberación entre dos médicos sobre la viabilidad del transplante de un órgano para un receptor potencial (es decir, si el transplante es seguro). En el segundo escenario varios agentes deliberan sobre si los efectos de un vertido industrial con el propósito de minimizar su impacto medioambiental.
|
79 |
Modelado de vistas personalizadas para la gestión de conocimiento en comunidades I+D+iMartínez Alcalá, Claudia Isabel 08 June 2012 (has links)
R&D+i communities are formed by people who relate each other in configuring networks, interchanging specialized knowledge and promoting innovative
contributions in different areas of knowledge. The tasks performed by this group of people, are often heterogeneous, independent and also difficult to program and plan, if compared to the other activities of an organization. These tasks or activities require a very individualized management, including interpersonal relationship skills.
As said, there is no doubt that it is necessary to manage knowledge effectively, Only through the right development of this management capacity that scientific networks or networks of knowledge, involving both generators of knowledge (researchers) and users thereof, may constitute "the backbone of the new societies".
Today, these difficulties are being overcome, largely, thanks to the emergence of new technologies of information and communication which have enabled the creation of new communicative and expressive environments that facilitate the practice various activities.
The aim of this work is to design and develop a model custom views that represent significant information of the activities that do members of a community R&D+i. The proposal of custom views presented in this research includes a selection of 12 indicators arranged in 6 personal views and group, which meets the specific documentary requirement system for ISO 9001.
The experimental phase was conducted within the research community of LAM, with the participation of 7 doctors, 6 researchers and 1 technician. For this research we selected the case study method and an investigation kind of exploratory in order to make empirical work and the reality of organizations
even closer.
The results obtained through this investigation, make this proposed of custom views a valid and useful model in order to represent relevant information to
both communities and the research groups, facilitating the management of certain activities and providing updated information. / Las comunidades I+D+i están compuestas por una serie de personas que se relacionan configurando redes, intercambiando conocimientos especializados y promoviendo aportaciones innovadoras en diferentes áreas de conocimiento. Las tareas realizadas por este grupo de personas, suelen ser heterogéneas, independientes y a la vez difíciles de programar y planificar, en comparación con las otras actividades de una organización. Estas tareas o actividades requieren de una gestión muy individualizada, tomando en cuenta las habilidades de relación interpersonales.
Dicho lo anterior, no hay duda que es necesario gestionar con eficiencia el conocimiento, pues es solo a partir del desarrollo de esta capacidad de gestión que las redes científicas o redes del conocimiento, en las que participan tanto generadores del conocimiento (investigadores) como usuarios del mismo, se pueden constituir en “la espina dorsal de las nuevas sociedades” (Chaparro, 1998).
En la actualidad estas dificultades están siendo superadas, en gran medida, gracias a la aparición de nuevas tecnologías de información y comunicación las cuales han permitido la creación de nuevos entornos comunicativos y expresivos que facilitan la práctica de diversas actividades.
El objetivo de esta tesis es diseñar y desarrollar un modelo de vistas personalizadas que representen información significativa de las actividades
realizadas por miembros de una comunidad I+D+i. La propuesta de vistas que presentamos en esta investigación recoge una selección de 12 indicadores
dispuestos en 6 vistas personales y de grupo, la cual satisface los requerimientos propios del sistema documental de una certificación ISO 9001.
La fase experimental fue realizada dentro de la comunidad de investigación del LAM, con la participación de 7 doctores, 6 investigadores y 1 técnico. Para esta investigación se seleccionó el método de estudio de caso y una investigación de tipo exploratoria para conseguir un acercamiento entre el trabajo empírico realizado y la realidad de las organizaciones.
Como paso previo para la validación del diseño de las vistas personalizadas se llevaron a cabo encuestas para estudiar su aceptación y viabilidad. La evaluación fue realizada por un colectivo de expertos de los centros de investigación de la red TECNIO, cuya actividad de I+D+i los hace idóneos para introducir la vista personalizada de las actividades que se llevan a cabo. La segunda evaluación fue realizada por los propios miembros de la comunidad de investigación del LAM.
Los resultados obtenidos en esta investigación, hacen de esta propuesta de vistas personalizadas un modelo válido y útil para representar información relevante tanto de comunidades científicas como de grupos de investigación, facilitando la gestión de ciertas actividades y proporcionando una información actualizada.
|
80 |
Improving data utility in differential privacy and k-anony mitySoria Comas, Jorge 14 June 2013 (has links)
We deal with SDC from the computer science community perspective. The focus lies on two mainstream privacy models: k-anonymity and differential privacy. Once a privacy model has been selected, the goal is to enforce it while preserving as much data utility as possible. The main objective of this thesis is to improve the data utility in k-anonymous and differentially private data releases.
k-Anonymity has several drawbacks. On the disclosure limitation side, there is a lack of protection against attribute disclosure and against informed intruders. On the data utility side, dealing with a large number of quasi-identifier attributes is problematic. We propose a relaxation of k-anonymity that deals with these issues.
Differential privacy limits disclosure risk through noise addition. The Laplace distribution is commonly used for the random noise. We show that the Laplace distribution is not optimal: the same disclosure limitation guarantee can be attained by adding less noise. Optimal univariate and multivariate noises are characterized and constructed.
Common mechanisms to attain differential privacy do not take into account the users’ prior knowledge; they implicitly assume zero initial knowledge about the query response. We propose a mechanism that focuses on limiting the knowledge gain over the prior knowledge.
Microaggregation-based k-anonymity and differential privacy can be combined to produce microdata releases with the strong privacy guarantees of differential privacy and improved data accuracy. / Aquesta tesi adopta el punt de vista de la comunitat informàtica. Ens centrem en dos models de privadesa àmpliament acceptats: el k-anonimat i la privadesa
diferencial. Un cop triat el model de privadesa, l’objectiu passa a ser complir-ne els requisits, alhora que preservar la màxima utilitat possible en les dades resultants. L’objectiu principal d’aquesta tesi és la millora de la utilitat en la publicació de dades k-anònimes i diferencialment privades.
El k-anonimat presenta alguns problemes. Pel que fa al risc de revelació, no
protegeix contra la revelació d’atributs ni contra intrusos informats. Pel que fa a
la utilitat de les dades, tractar amb fitxers amb un nombre elevat d’atributs quasiidentificadors pot ser problemàtic. Proposem una relaxació del k-anonimat que tracta aquests problemas.
La privadesa diferencial limita el risc de revelació afegint un soroll aleatori al resultat de les consultes. Mostrem que la distribució de Laplace no és òptima: es poden complir els requeriments de la privadesa diferencial afegint sorolls més petits. A més, caracteritzem i construïm les distribucions òptimes (univariant i multivariant).
Els mecanismes habituals per obtener privadesa diferencial no tenen en compte el possible coneixement previ dels usuaris; implícitament, se’ls suposa un coneixement nul. Proposem un mecanismo basat a limitar el guany de coneixement de l’usuari respecte del seu coneixement inicial.
El k-anonimat i la privadesa diferencial es presenten sovint com a models contraposats. La privadesa diferencial i el k-anonimat no són conceptes completament inconnexos: si es pren com a punt de partida per obtenir privadesa diferencial un conjunt de dades k-anònim (obtingut mitjançant un cert tipus de microagregació), la quantitat de soroll necessari es veu reduïda significativament. / Adoptamos aquí el proceder de la comunidad informática y nos ocupamos de dos de los principales modelos de privacidad: k-anonimato y privacidad diferencial. Una vez seleccionado un modelo de privacidad, el objetivo pasa a ser cumplir con sus requisitos, a la vez que se trata de preservar la máxima utilidad posible para los datos
El k-anonimato presenta algunos problemas. En relación a la limitación del riesgo de revelación, no protege contra la revelación de atributos, ni contra intrusos informados. En relación a la utilidad de los datos, tratar con ficheros que tienen un número elevado de atributos cuasi-identificadores es problemático. Proponemos un nuevo modelo basado en la relajación del requisito de indistinguibilidad que establece el k-anonimato.
La privacidad diferencial limita el riesgo de revelación añadiendo un ruido aleatorio al resultado de las consultas. Habitualmente se utiliza la distribución de Laplace para generar dicho ruido. En esta tesis mostramos que la distribución de Laplace no es óptima. Asimismo, caracterizamos y construimos las distribuciones óptimas (univariante y multivariante).
Los mecanismos usuales para obtener privacidad diferencial no tienen en cuenta este conocimiento previo; implícitamente, se supone un conocimiento nulo. Proponemos un mecanismo para obtener privacidad diferencial orientado a limitar la ganancia de conocimiento del usuario con respecto a su conocimiento previo.
El k-anonimato y la privacidad diferencial son a menudo presentados como nociones de privacidad contrapuestas. Mostramos que tomando como datos de partida para obtener privacidad diferencial un conjunto de datos k-anónimo (construido mediante un cierto tipo de microagregación) se reduce la cantidad de ruido necesaria y se mejora la utilidad de la información.
|
Page generated in 0.0665 seconds