• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 296
  • 125
  • 75
  • 28
  • 14
  • 13
  • 10
  • 10
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 604
  • 266
  • 129
  • 116
  • 87
  • 63
  • 44
  • 38
  • 38
  • 30
  • 28
  • 25
  • 25
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

The inverse problem on finite networks

Araúz Lombardía, Cristina 19 June 2014 (has links)
The aim of this thesis is to contribute to the field of discrete boundary value problems on finite networks. Boundary value problems have been considered both on the continuum and on the discrete fields. Despite working in the discrete field, we use the notations of the continuous field for elliptic operators and boundary value problems. The reason is the importance of the symbiosis between both fields, since sometimes solving a problem in the discrete setting can lead to the solution of its continuum version by a limit process. However, the relation between the discrete and the continuous settings does not work out so easily in general. Although the discrete field has softness and regular conditions on all its manifolds, functions and operators in a natural way, some difficulties that are avoided by the continuous field appear. Specifically, this thesis endeavors two objectives. First, we wish to deduce functional, structural or resistive data of a network taking advantage of its conductivity information. The actual goal is to gather functional, structural and resistive information of a large network when the same specifics of the subnetworks that form it are known. The reason is that large networks are difficult to work with because of their size. The smaller the size of a network, the easier to work with it, and hence we try to break the networks into smaller parts that may allow us to solve easier problems on them. We seek the expressions of certain operators that characterize the solutions of boundary value problems on the original networks. These problems are denominated direct boundary value problems, on account of the direct employment of the conductivity information. The second purpose is to recover the internal conductivity of a network using only boundary measurements and global equilibrium conditions. For this problem is poorly arranged because it is highly sensitive to changes in the boundary data, at times we only target a partial reconstruction of the conductivity data or we introduce additional conditions to the network in order to be able to perform a full internal reconstruction. This variety of problems is labelled as inverse boundary value problems, in light of the profit of boundary information to gain knowledge about the inside of the network. Our work tries to find situations where the recovery is feasible, partially or totally. One of our ambitions regarding inverse boundary value problems is to recuperate the structure of the networks that allow the well-known Serrin's problem to have a solution in the discrete setting. Surprisingly, the answer is similar to the continuous case. We also aim to achieve a network characterization from a boundary operator on the network. With this end we define a new class of boundary value problems, that we call overdetermined partial boundary value problems. We describe how the solutions of this family of problems that hold an alternating property on a part of the boundary spread through the network preserving this alternance. If we focus in a family of networks, we see that the above mentioned operator on the boundary can be the response matrix of an infinite family of networks associated to different conductivity functions. By choosing an specific extension, we get a unique network whose response matrix is equal to a previously given matrix. Once we have characterized those matrices that are the response matrices of certain networks, we try to recover the conductances of these networks. With this end, we characterize any solution of an overdetermined partial boundary value problem and describe its resolvent kernels. Then, we analyze two big groups of networks owning remarkable boundary properties which yield to the recovery of the conductances of certain edges near the boundary. We aim to give explicit formulae for the acquirement of these conductances. Using these formulae we are allowed to execute a full conductivity recovery under certain circumstances. / Aquesta tesi té dos objectius generals. Primer, volem deduir dades funcionals, estructurals o resistives d'una xarxa fent servir la informació proporcionada per la seva conductivitat. L'objectiu real és aconseguir aquesta informació d'una xarxa gran quan coneixem la mateixa de les subxarxes que la formen. El motiu és que les xarxes grans no són fàcils de treballar a causa de la seva mida. Com més petita sigui una xarxa, més fàcil serà treballar-hi, i per tant intentem trencar les xarxes grans en parts més petites que potser ens permeten resoldre problemes sobre elles més fàcilment. Principalment busquem les expressions de certs operadors que caracteritzen les solucions dels problemes de contorn en les xaxes originals. Aquests problemes es diuen problemes directes, ja que s'empren directament les dades de conductivitat per obtenir informació. El segon objectiu és recuperar les dades de conductivitat a l'interior d'una xarxa emprant només mesures a la frontera de la mateixa i condicions d'equiliri globals. Com que aquest problema no està ben establert perquè és altament sensible als canvis en les dades de frontera, de vegades només busquem una reconstrucció partial de la conductivitat o afegim condicions a la xarxa per tal de recuperar completament la conductivitat. Aquest tipus de problemes es diuen problemes inversos, ja que es fa servir informació a la frontera per aconseguir coneixements de l'interior de la xarxa. Aquest treball tracta de trobar situacions on la recuperació, total o parcial, es pugui dur a terme. Una de les nostres ambicions quant a problemes inversos és recuperar l'estructura de les xarxes per les que el ben conegut Problema de Serrin té solució en el camp discret. Sorprenentment, la resposta és similar al cas continu. També volem caracteritzar les xarxes mitjançant un operador a la frontera. Amb aquesta finalitat definim els problemes de contorn parcials sobredeterminats i describim com les solucions d'aquesta família de problemes que tenen una propietat d'alternància a una part de la frontera es propaguen a través de la xarxa mantenint aquesta alternància. Si ens centrem en una certa família de xarxes, veiem que l'operador a la frontera que abans hem mencionat pot ser la matriu de respostes d'una família infinita de xarxes amb diferentes conductivitats. Escollint una extensió en concret, obtenim una única xarxa per la qual una matriu donada és la seva matriu de respostes. Un cop hem caracteritzat aquelles matrius que són la matriu de respostes de certes xarxes, intentem recuperar les conductàncies d'aquestes xarxes. Amb aquesta finalitat, caracteritzem qualsevol solució d'un problema de contorn parcial sobredeterminat. Després, analitzem dos gran grups de xarxes que tene propietats de frontera notables i que ens porten a la recuperació de les conductàncies de certes branques a prop de la frontera. L'objectiu és donar fórmules explícites per obtenir aquestes conductàncies. Fent servir aquestes fórmules, aconseguim dur a terme una recuperació completa de conductàncies sota certes circumstàncies
32

Propagation in reaction-diffusion equations with fractional diffusion

Coulon, Anne-Charline 07 July 2014 (has links)
Co-tutela Universitat Politècnica de Catalunya i Université Paul Sabatier / This thesis focuses on the long time behaviour of solutions to Fisher-KPP reaction-diffusion equations involving fractional diffusion. This type of equation arises, for example, in spatial propagation or spreading of biological species (rats, insects,...). In population dynamics, the quantity under study stands for the density of the population. It is well-known that, under some specific assumptions, the solution tends to a stable state of the evolution problem, as time goes to infinity. In other words, the population invades the medium, which corresponds to the survival of the species, and we want to understand at which speed this invasion takes place. To answer this question, we set up a new method to study the speed of propagation when fractional diffusion is at stake and apply it on three different problems. Part I of the thesis is devoted to an analysis of the asymptotic location of the level sets of the solution to two different problems : Fisher-KPP models in periodic media and cooperative systems, both including fractional diffusion. On the first model, we prove that, under some assumptions on the periodic medium, the solution spreads exponentially fast in time and we find the precise exponent that appears in this exponential speed of propagation. We also carry out numerical simulations to investigate the dependence of the speed of propagation on the initial condition. On the second model, we prove that the speed of propagation is once again exponential in time, with an exponent depending on the smallest index of the fractional Laplacians at stake and on the reaction term. Part II of the thesis deals with a two dimensional environment, where reproduction of Fisher-KPP type and usual diffusion occur, except on a line of the plane, on which fractional diffusion takes place. The plane is referred to as 'the field' and the line to 'the road', as a reference to the biological situations we have in mind. Indeed, it has long been known that fast diffusion on roads can have a driving effect on the spread of epidemics. We prove that the speed of propagation is exponential in time on the road, whereas it depends linearly on time in the field. Contrary to the precise asymptotics obtained in Part I, for this model, we are not able to give a sharp location of the level sets on the road and in the field. The expansion shape of the level sets in the field is investigated through numerical simulations. / Esta tesis se centra en el comportamiento en tiempos grandes de las soluciones de la ecuación de Fisher- KPP de reacción-difusión con difusión fraccionaria. Este tipo de ecuación surge, por ejemplo, en la propagación espacial o en la propagación de especies biológicas (ratas, insectos,...). En la dinámica de poblaciones, la cantidad que se estudia representa la densidad de la población. Es conocido que, bajo algunas hipótesis específicas, la solución tiende a un estado estable del problema de evolución, cuando el tiempo tiende a infinito. En otras palabras, la población invade el medio, lo que corresponde a la supervivencia de la especie, y nosotros queremos entender con qué velocidad se lleva a cabo esta invasión. Para responder a esta pregunta, hemos creado un nuevo método para estudiar la velocidad de propagación cuando se consideran difusiones fraccionarias, además hemos aplicado este método en tres problemas diferentes. La Parte I de la tesis está dedicada al análisis de la ubicación asintótica de los conjuntos de nivel de la solución de dos problemas diferentes: modelos de Fisher- KPP en medios periódicos y sistemas cooperativos, ambos consideran difusión fraccionaria. En el primer modelo, se prueba que, bajo ciertas hipótesis sobre el medio periódico, la solución se propaga exponencialmente rápido en el tiempo, además encontramos el exponente exacto que aparece en esta velocidad de propagación exponencial. También llevamos a cabo simulaciones numéricas para investigar la dependencia de la velocidad de propagación con la condición inicial. En el segundo modelo, se prueba que la velocidad de propagación es nuevamente exponencial en el tiempo, con un exponente que depende del índice más pequeño de los Laplacianos fraccionarios y también del término de reacción. La Parte II de la tesis ocurre en un entorno de dos dimensiones, donde se reproduce un tipo ecuación de Fisher- KPP con difusión estándar, excepto en una línea del plano, en el que la difusión fraccionada aparece. El plano será llamado "campo" y la línea "camino", como una referencia a las situaciones biológicas que tenemos en mente. De hecho, desde hace tiempo se sabe que la difusión rápida en los caminos puede causar un efecto en la propagación de epidemias. Probamos que la velocidad de propagación es exponencial en el tiempo en el camino, mientras que depende linealmente del tiempo en el campo. Contrariamente a los precisos exponentes obtenidos en la Parte I, para este modelo, no fuimos capaces de dar una localización exacta de los conjuntos de nivel en la carretera y en el campo. La forma de propagación de los conjuntos de nivel en el campo se investiga a través de simulaciones numéricas
33

Beyond the classical Stefan problem

Font Martínez, Francesc 18 July 2014 (has links)
In this thesis we develop and analyse mathematical models describing phase change phenomena linked with novel technological applications. The models are based on modifications to standard phase change theory. The mathematical tools used to analyse such models include asymptotic analysis, similarity solutions, the Heat Balance Integral Method and standard numerical techniques such as finite differences. In chapters 2 and 3 we study the melting of nanoparticles. The Gibbs-Thomson relation, accounting for melting point depression, is coupled to the heat equations for the solid and liquid and the associated Stefan condition. A perturbation approach, valid for large Stefan numbers, is used to reduce the governing system of partial differential equations to a less complex one involving two ordinary differential equations. Comparison between the reduced system and the numerical solution shows good agreement. Our results reproduce interesting behaviour observed experimentally such as the abrupt melting of nanoparticles. Standard analyses of the Stefan problem impose constant physical properties, such as density or specific heat. We formulate the Stefan problem to allow for variation at the phase change and show that this can lead to significantly different melting times when compared to the standard formulation. In chapter 4 we study a mathematical model describing the solidification of supercooled liquids. For Stefan numbers larger than unity the classical Neumann solution provides an analytical expression to describe the solidification. For Stefan numbers equal or smaller than unity, the Neumann solution is no longer valid. Instead, a linear relationship between the phase change temperature and the front velocity is often used. This allows solutions for all values of the Stefan number. However, the linear relation is an approximation to a more complex, nonlinear relationship, valid for small amounts of supercooling. We look for solutions using the nonlinear relation and demonstrate the inaccuracy of the linear relation for large supercooling. Further, we show how the classical Neumann solution significantly over-predicts the solidification rate for values of the Stefan number near unity. The Stefan problem is often reduced to a 'one-phase' problem (where one of the phases is neglected) in order to simplify the analysis. When the phase change temperature is variable it has been claimed that the standard reduction loses energy. In chapters 5 and 6, we examine the one-phase reduction of the Stefan problem when the phase change temperature is time-dependent. In chapter 5 we derive a one-phase reduction of the supercooled Stefan problem, and test its performance against the solution of the two-phase model. Our model conserves energy and is based on consistent physical assumptions, unlike one-phase reductions from previous studies. In chapter 6 we study the problem from a general perspective, and identify the main erroneous assumptions of previous studies leading to one-phase reductions that do not conserve energy or, alternatively, are based on non-physical assumptions. We also provide a general one-phase model of the Stefan problem with a generic variable phase change temperature, valid for spherical, cylindrical and planar geometries. / En aquesta tesi desenvolupem i analitzem models matemàtics que descriuen processos de transició de fase vinculats a noves tecnologies. Els models es basen en modificacions de la teoria estàndard de canvis de fase. Les tècniques matemàtiques per resoldre els models es basen en l'anàlisi asimptòtic, solucions autosimilars, el mètode de la integral del balanç de la calor i mètodes numèrics estàndards com ara el mètode de les diferències finites. En els capítols 2 i 3 estudiarem la transició solid-liquid d'una nanopartícula, acoblant la relació de Gibbs-Thomson, que descriu la depressió de la temperatura de fusió en una superfície corba, amb l'equació de la calor per la fase sòlida i líquida, i la condició de Stefan. Mitjançant el mètode de pertorbacions, per a valors grans del nombre de Stefan, el problema d'equacions en derivades parcials inicial és reduït a un sistema més senzill de dues equacions diferencials ordinàries. La solució del sistema reduït concorda perfectament amb la solució numèrica del sistema inicial d'equacions en derivades parcials. Els resultats confirmen la transició ultra ràpida de sòlid a líquid observada en experiments amb nanopartícules. Els anàlisis estàndards del problema de Stefan consideren propietats físiques com la densitat i el calor específic constants en la fase sòlida i líquida. En aquesta tesi, formularem el problema de Stefan relaxant la condició de densitat constant, el que portarà a diferències molt significatives en els temps totals de fusió al comparar-los amb els temps obtinguts mitjançant la formulació habitual del problema de Stefan. En el capítol 4 estudiarem un model matemàtic que descriu la solidificació de líquids sota-refredats. Per nombres de Stefan més grans que la unitat la solució clàssica de Neumann dona una expressió analítica que descriu el procés. Per valors del nombre de Stefan més petits o iguals que la unitat, la solució de Neumann no es vàlida i, habitualment, per tal de trobar solucions en aquest règim, s'estableix una relació lineal entre la temperatura de canvi de fase i la velocitat del front de solidificació. Aquesta relació lineal però, és una aproximació per sota-refredaments moderats d'una relació no lineal més complexa. En aquest capítol, buscarem solucions del problema incorporant la relació no lineal al model, i demostrarem la poca precisió a l'utilitzar l'aproximació lineal. A més a més, veurem com la solució de Neumann sobreestima de manera significativa la velocitat del procés per valors propers a la unitat. Habitualment, el problema de Stefan és simplificat a un problema d'una fase (on una de les fases es desestimada) per tal de reduir la dificultat de l'anàlisi. En casos on la temperatura de transició de fase és variable s'ha reclamat que la simplificació d'una fase del problema no conserva l'energia. En els capítols 5 i 6, examinarem les diferents reduccions d'una fase del problema de Stefan en el cas on la temperatura de transició depèn del temps. En el capítol 5 derivarem el problema de Stefan d'una fase associat a la solidificació de líquids sota-refredats, i compararem la solució del sistema resultant amb la solució del problema de Stefan estàndard de dues fases. A diferència dels models d'una fase descrits en estudis previs, el nostre model reduït conserva l'energia i està basat en suposicions físiques consistents. En el capítol 6 estudiarem el problema des d'una perspectiva més general i identificarem les suposicions errònies d'estudis previs que porten a la no conservació de l'energia o que, alternativament, estan basades en suposicions físiques poc consistents. A més a més, derivarem un model d'una fase amb temperatura de canvi de fase variable, vàlid per geometries esfèriques, cilíndriques i planes.
34

The capacitated minimum spanning tree problem

Ruiz y Ruiz, Héctor Efraín 15 July 2013 (has links)
In this thesis we focus on the Capacitated Minimum Spanning Tree (CMST), an extension of the minimum spanning tree (MST) which considers a central or root vertex which receives and sends commodities (information, goods, etc) to a group of terminals. Such commodities flow through links which have capacities that limit the total flow they can accommodate. These capacity constraints over the links result of interest because in many applications the capacity limits are inherent. We find the applications of the CMST in the same areas as the applications of the MST; telecommunications network design, facility location planning, and vehicle routing. The CMST arises in telecommunications networks design when the presence of a central server is compulsory and the flow of information is limited by the capacity of either the server or the connection lines. Its study also results specially interesting in the context of the vehicle routing problem, due to the utility that spanning trees can have in constructive methods. By the simple fact of adding capacity constraints to the MST problem we move from a polynomially solvable problem to a non-polynomial one. In the first chapter we describe and define the problem, introduce some notation, and present a review of the existing literature. In such review we include formulations and exact methods as well as the most relevant heuristic approaches. In the second chapter two basic formulations and the most used valid inequalities are presented. In the third chapter we present two new formulations for the CMST which are based on the identification of subroots (vertices directly connected to the root). One way of characterizing CMST solutions is by identifying the subroots and the vertices assigned to them. Both formulations use binary decision variables y to identify the subroots. Additional decision variables x are used to represent the elements (arcs) of the tree. In the second formulation the set of x variables is extended to indicate the depth of the arcs in the tree. For each formulation we present families of valid inequalities and address the separation problem in each case. Also a solution algorithm is proposed. In the fourth chapter we present a biased random-key genetic algorithm (BRKGA) for the CMST. BRKGA is a population-based metaheuristic, that has been used for combinatorial optimization. Decoders, solution representation and exploring strategies are presented and discussed. A final algorithm to obtain upper bounds for the CMST is proposed. Numerical results for the BRKGA and two cutting plane algorithms based on the new formulations are presented in the fifth chapter . The above mentioned results are discussed and analyzed in this same chapter. The conclusion of this thesis are presented in the last chapter, in which we include the opportunity areas suitable for future research. / En esta tesis nos enfocamos en el problema del Árbol de Expansión Capacitado de Coste Mínimo (CMST, por sus siglas en inglés), que es una extensión del problema del árbol de expansión de coste mínimo (MST, por sus siglas en inglés). El CMST considera un vértice raíz que funciona como servidor central y que envía y recibe bienes (información, objetos, etc) a un conjunto de vértices llamados terminales. Los bienes solo pueden fluir entre el servidor y las terminales a través de enlaces cuya capacidad es limitada. Dichas restricciones sobre los enlaces dan relevancia al problema, ya que existen muchas aplicaciones en que las restricciones de capacidad son de vital importancia. Dentro de las áreas de aplicación del CMST más importantes se encuentran las relacionadas con el diseño de redes de telecomunicación, el diseño de rutas de vehículos y problemas de localización. Dentro del diseño de redes de telecomunicación, el CMST está presente cuando se considera un servidor central, cuya capacidad de transmisión y envío está limitada por las características de los puertos del servidor o de las líneas de transmisión. Dentro del diseño de rutas de vehículos el CMST resulta relevante debido a la influencia que pueden tener los árboles en el proceso de construcción de soluciones. Por el simple de añadir las restricciones de capacidad, el problema pasa de resolverse de manera exacta en tiempo polinomial usando un algoritmo voraz, a un problema que es muy difícil de resolver de manera exacta. En el primer capítulo se describe y define el problema, se introduce notación y se presenta una revisión bibliográfica de la literatura existente. En dicha revisión bibliográfica se incluyen formulaciones, métodos exactos y los métodos heurísticos utilizados más importantes. En el siguiente capítulo se muestran dos formulaciones binarias existentes, así como las desigualdades válidas más usadas para resolver el CMST. Para cada una de las formulaciones propuestas, se describe un algoritmo de planos de corte. Dos nuevas formulaciones para el CMST se presentan en el tercer capítulo. Dichas formulaciones estás basadas en la identificación de un tipo de vértices especiales llamados subraíces. Los subraíces son aquellos vértices que se encuentran directamente conectados al raíz. Un forma de caracterizar las soluciones del CMST es a través de identificar los nodos subraíces y los nodos dependientes a ellos. Ambas formulaciones utilizan variables para identificar los subraices y variables adicionales para identificar los arcos que forman parte del árbol. Adicionalmente, las variables en la segunda formulación ayudan a identificar la profundidad con respecto al raíz a la que se encuentran dichos arcos. Para cada formulación se presentan desigualdades válidas y se plantean procedimientos para resolver el problema de su separación. En el cuarto capítulo se presenta un algoritmo genético llamado BRKGA para resolver el CMST. El BRKGA está basado en el uso de poblaciones generadas por secuencias de números aleatorios, que posteriormente evolucionan. Diferentes decodificadores, un método de búsqueda local, espacios de búsqueda y estrategias de exploración son presentados y analizados. El capítulo termina presentando un algoritmo final que permite la obtención de cotas superiores para el CMST. Los resultados computacionales para el BRKGA y los dos algoritmos de planos de corte basados en las formulaciones propuestas se muestran en el quinto capítulo. Dichos resultados son analizados y discutidos en dicho capítulo. La tesis termina presentando las conclusiones derivadas del desarrollo del trabajo de investigación, así como las áreas de oportunidad sobre las que es posible realizar futuras investigaciones.
35

Trigonometria como uma ferramenta no auxílio do cálculo de distâncias inacessíveis

Leite, Lélio Antônio de Oliveira 16 October 2015 (has links)
Submitted by Morgana Andrade (morgana.andrade@ufes.br) on 2016-04-20T18:20:56Z No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Lelio Antonio O Leite.pdf: 5043193 bytes, checksum: 909feca2037d23e2dc414c66114c330b (MD5) / Approved for entry into archive by Patricia Barros (patricia.barros@ufes.br) on 2016-05-11T16:05:10Z (GMT) No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Lelio Antonio O Leite.pdf: 5043193 bytes, checksum: 909feca2037d23e2dc414c66114c330b (MD5) / Made available in DSpace on 2016-05-11T16:05:10Z (GMT). No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Lelio Antonio O Leite.pdf: 5043193 bytes, checksum: 909feca2037d23e2dc414c66114c330b (MD5) / CAPES / Este trabalho tem como objetivo principal fornecer material de apoio para os professores e alunos de matemática dos Ensinos Fundamental e Médio e o foco são as aplicações da trigonometria. Iniciamos com algumas definições e resultados sobre esse tema e abordamos diversas situações problemas, visando exemplificar para o leitor a importância da trigonometria como uma ferramenta no auxílio do cálculo de distâncias inacessíveis. / This work aims to provide background material for math teachers and students of elementary and high schools and the focus is on applications of trigonometry. We begin with some definitions and results on this topic and approach different situations problems to illustrate to the reader the importance of trigonometry in the aid calculation inaccessible distances.
36

La recepció del càlcul diferencial a l’Espanya del segle XVIII. Tomàs Cerdà: introductor de la teoria de fluxions

Berenguer Clarià, Joaquim 20 January 2016 (has links)
La nostra recerca es situa a l’Espanya del segle XVIII i està centrada en el desenvolupament i difusió del càlcul diferencial i integral o el càlcul de fluxions, com es va denominar a la Gran Bretanya. L’anàlisi del càlcul diferencial i integral com a nou camp matemàtic a Europa del segle XVIII no és un tema nou, però, molt sovint, s’ha acostumat a enfocar la visió d’aquest desenvolupament des del “centre” i a partir de les grans figures com Isaac Newton o Gottfried Wilhelm Leibniz. La nostra tesi posa l’atenció en la recepció d’aquest nou càlcul a Espanya, a través de Tomàs Cerdà (1715-1791). Cerdà va ser un jesuïta català dedicat a l’ensenyament de les matemàtiques a Barcelona i a Madrid a mitjans del segle XVIII, que va publicar diversos textos matemàtics i tenia preparats molts altres per a una futura publicació. Un d’aquests manuscrits és un tractat sobre càlcul diferencial, el Tratado de Fluxiones, que és una traducció i adaptació d’un altre llibre, The Doctrine and Application of Fluxions (1750) d’un matemàtic anglès, Thomas Simpson (1710-1761). Així doncs, el principal objectiu de la nostra tesi s’ha concretat en l’anàlisi del paper de Cerdà en la introducció del càlcul diferencial i integral en l’Espanya del segle XVIII, a partir del seu Tratado de Fluxiones. Cerdà es va apropiar del càlcul fluxional de Simpson i li va donar una determinada orientació, pensant fonamentalment en els seus deixebles. El com i per què Cerdà va decidir quin seria el seu guia en la introducció del càlcul diferencial i integral i quines van ser les seves pròpies aportacions en aquesta tasca són els temes centrals de la nostra tesi. D’aquesta manera, la nostra recerca ha anat dirigida a entendre millor el procés de divulgació del coneixement científic, veient-lo, en tot moment, com part activa del mateix procés de construcció d’aquest coneixement. / Our research concerns eighteenth century Spain and is focused on the development and diffusion of Differential and Integral Calculus or Calculus of Fluxions, as it was known in Great Britain. The analysis of Differential Calculus, as a new field of mathematics in eighteenth century Europe is not a new topic, but it has often been used to approach this topic from the “centre” and via the well-known scientists Isaac Newton or Gottfried Wilhelm Leibniz. Our thesis focus on the reception of this new calculus into Spain, through Tomàs Cerdà (1715-1791). Cerdà was a Catalan Jesuit devoted to the teaching of mathematics in Barcelona and Madrid, in the mid-eighteenth century, and who published several mathematicals texts and prepared many others for future publication. One of these manuscripts is a treatise on Differential Calculus, the Tratado de Fluxiones, which is a translation and an adaptation of another book, The Doctrine and Application of Fluxions (1750) by an English mathematician, Thomas Simpson (1710-1761). Thus, the main aim of our thesis centers on the analysis of the role of Cerdà in the introduction of Differential and Integral Calculus in eighteenth Century Spain, by means his Tratado de Fluxiones. Cerdà appropriated Simpson’s fluxional calculus and managed it into a new shape, basically by thinking of his pupils. The main topics of our thesis are how and why Cerdà decided who would be his guide for the introduction of Differential and Integral Calculus and what his own contributions were to this work. To that end, our research is aimed at a better understanding of the process of popularisation of scientific knowledge, in such a way that it becomes an active part of the building process of this knowledge.
37

Medium-term power planning in electricity markets with renewable generation sources

Marí Tomàs, Laura 25 September 2015 (has links)
The problem addressed in this thesis is the medium-term generation planning over a yearly horizon of a generation company participating in a liberalized electricity market with pool auction of generation and consumption and with bilateral contracts between generation companies and distributions companies or big consumers. It is assumed that the generation portfolio of several generation companies includes a significant proportion of dispatchable renewables (hydro generation with storage reservoirs and pumping schemes) and non-dispatchable renewables as wind power and solar photovoltaic generation. It is also assumed than more than one generation company are able to influence market-price levels through their bidding in the auction so that the market could be oligopolistic. The results obtained are of interest to price-maker generation companies, but also to price-taker generators, and to the market operator to check whether the participants in the market behave as a cartel or seeking an equilibrium. The stochasticity of parameters in the medium-term planning is modeled in two ways. Regarding consumers load and generation unit outages, through the use of the probabilistic method of load matching: by representing the load through predicted load-duration curves of each period into which the yearly horizon is subdivided, by considering the capacity and an outage probability of each generation unit and by using the existing convolution techniques and the linear-inequality load-matching constraints. Regarding renewable energy sources, stochastic programming is used. Hydro-generation scenarios of inflows are developed for each period. As for non-dispatchable renewables (wind power and solar photo-voltaic generation), a novel model of representing them through two pseudo-units: one base unit with small outage probability and a crest unit with large outage probability is proposed, and scenarios are developed for the relevant parameters of the pseudo-units. The solar photo-voltaic generation model requires splitting each period into three subperiods with the dark hours, with the medium-light hours and with the bright hours. Quasi-Monte Carlo techniques have been employed to create a large scenario fan later reduced to a scenario tree with a reduced number of scenarios. Market prices are taken into account through an endogenous linear market-price function of load duration whose intercept depends on total hydro generation level and on wind power and solar photovoltaic level in each node of the scenario tree. With such market price function, the endogenous cartel solution and the equilibrium solutions to the medium-term planning can be obtained. To avoid having to consider the total exponential number of load-matching constraints, a load matching heuristic has been employed where small batches of new load matching constraints are generated after successive optimizations considering only the generated load matching constraints. For equilibrium solutions, the Nikaido-Isoda relaxation algorithm of successive solutions is employed using the successive optimizations of the load-matching heuristic. In mixed-market systems with auction and bilateral contracts, a time-share hypothesis is formulated and the profits function for generation companies with the generation left after honoring their bilateral contracts is formulated. The profit function obtained is non-convex, and a direct global optimization solver was tried, but proved not to be practical for the size of problem to be solved. A non-linear interior-point constrained optimization solver, also employed for problems in pure pool markets, was tried with several special techniques to circumvent the troubles caused by the non-convexity of the objective function and satisfactory results were obtained. A novel model of multi-period medium-term pumping was presented and employed. Results for several realistic test cases having different generation settings have been presented and analyzed. / El problema adreçat en aquesta tesi és el de la planificació a mig termini de la generació elèctrica d'una companyia que participa dins d'un mercat elèctric. S'ha assumit que aquestes companyies generadores disposen d'una proporció significant d'energies renovables despatxables (com la generació hidràulica amb embassaments d'emmagatzematge i sistemes de bombeig) i d'energies renovables no-despatxables tals com l'energia eòlica i la generació d'energia solar fotovoltaica. També s’ha tingut en compte que més d'una companyia generadora és capaç d'influir en els nivells de preu de mercat a través de les seves ofertes dins de la subhasta tractant-se, doncs, d'un mercat oligopolístic. Els resultats obtinguts són interessants per a companyies generadores del tipus 'price-maker', però alhora també ho són per companyies 'price-taker' i, finalment, també ho són per a l'operador del mercat per tal de comprovar si els participants en el mercat es comporten com si hi hagués 'cartel' o si bé busquen l'equilibri. L'estocasticitat de la càrrega i les panes de les unitats de generació dins de la planificació a mig termini es modela mitjançant l'ús del mètode probabilístic de recobriment de la càrrega: tot representant la càrrega a través de corbes predites de durada de la càrrega per a cada període tractat, utilitzant tècniques existents de convolucions i les anomenades constriccions de recobriment de la càrrega que són de desigualtat i lineals. Pel que fa a les energies renovables s'ha emprat programació estocàstica. Per a cada període s'han desenvolupat escenaris d'hidràulica per a les aportacions naturals d'aigua. Pel que fa a les renovables no-despatxables (eòlica i solar), es presenta un nou model per a representar-les a través de dues pseudo-unitats: una unitat de base amb una probabilitat de pana molt petita i una unitat de cresta amb una probabilitat de pana gran. La generació solar requereix un model més complex ja que s'han dividit les hores solars en tres subperíodes: sense sol, sol mig i sol. També s'han creat escenaris per als paràmetres més rellevants d'aquestes pseudo-unitats. S'han emprat mètodes de Quasi-Monte Carlo per a crear un gran arbre d'escenaris de tipus FAN que, posteriorment, s'ha reduït a un arbre d'escenaris d'una determinada mida. La funció de preu de mercat respecte a la durada de la càrrega és una funció endògena on es té en compte la variació observada del nivell dels preus amb la generació hidràulica, la generació eòlica i la solar a cada node dins de l'arbre d'escenaris. Amb aquest tipus de funció de preu de mercat, les solucions de cartel i les d'equilibri poden ser obtingudes. Per tal de no haver de considerar un nombre exponencial de constriccions de recobriment, s'utilitza una heurística on petits subconjunts de restriccions es van generant després de successives optimitzacions considerant només les constriccions de recobriment generades. Per a les solucions d'equilibri, s'ha utilitzat l'algoritme de relaxació de Nikaido-Isoda en les successives optimitzacions de l'heurística. Pels mercats mixtos (amb subhasta i contractes bilaterals) s'ha formulat una hipòtesi de 'time-share' i s’ha presentat una funció de beneficis de les empreses generadores on només es té en compte la generació que resta després d'haver satisfet els contractes bilaterals. La funció obtinguda és no convexa i s'ha utilitzat un resolutor d'optimització global, però s'ha vist que no era pràctic per a la mida del problema que s'estava solucionant. Per aquest motiu, s'ha utilitzat un resolutor no lineal de punt interior (Ipopt) amb diverses tècniques especials per tal d'eludir els problemes causats per la no convexitat de la funció objectiu tot obtenint resultats satisfactoris. Finalment, s'ha presentat i s'ha utilitzat un nou mètode per introduir els esquemes de bombeig multi-període i a mig termini. Es mostren i s'analitzen els resultats obtinguts per a diversos casos de prova (realistes) amb diferents configuracions de generació.
38

Picture languages generated by splicing and assembling til·les

Sagaya Mary, Anthonath Roslin 01 February 2016 (has links)
Idiomes imatge generats per Empalme i Muntatge Rajoles. L'extensió de l'estudi de les llengües oficials sobre el cas string 2 idiomes dimensionals o idiomes imatge ha estat d'interès per molt temps per les seves vastes aplicacions. En la tesi i l'objecte de dues dimensions més comú estudiat és una imatge que és una matriu rectangular de símbols presos a partir d'un alfabet finit. L 'objectiu d'aquesta tesi se centra en l'estudi de la generació de les classes d'idiomes d'imatge per les operacions de bio-inspirats saber, `Enllaç' i` Auto-Assemblea 'd'ADN-Computing. És a dir, sistema d'entroncament i enrajolats Regla Sistemes H-Array. H-array Empalme Sistema és un formalisme bio-inspirat estès des H-entroncament de la caixa de cadena, un estudi àmpliament investigat introduït per T. Head. Està estructurat com un mecanisme mitjançant l'estudi de les gramàtiques lineals de dues dimensions correctes. Aquest formalisme és un mecanisme que s'aplica al número finit d'imatges trucades imatges inicials amb determinat conjunt de regles d'entroncament de dòmino de columna i fila. El lloc de context en el qual les dues imatges es tallen en columnes i files es va decidir per la seqüència de dòmino adjacents en el conjunt de regles. I llavors el `enganxar 'de la primera part de la imatge a la segona part de la imatge es realitza mitjançant la columna i fila concatenacions respectivament. L'H-Array Enllaç Sistemes s'aplica sobre llengües 2D-RLG generant idiomes Enllaç H-Array (HASL). A continuació, les classes de restricció definides i d'estudi són acte Creu sobre matrius i llenguatges Empalme matriu simples i resultats incomparables es va demostrar amb 2D-RLG, HASL. No són disjunts i es creuen llenguatges recognoscibles. El segon formalisme principal introduït i estudiat a la tesi és Revestiments Sistema de regles . Aquest formalisme genera la imatge pel conjunt de regles de mosaic, muntatge rajoles. Hem demostrat que la classe de L (TS) (Sistema d'enrajolat, llenguatge reconeixible) està continguda en TRuS. A més, vam demostrar existeixen una construcció del formalisme basat en la generació d'imatges en files o columnes que és equivalent a L (TS). L'equivalència es demostra l'ús de sistemes de Wang. Així que porta a una idea interessant d funcionament bio-inspirat (auto-acoblament) a la generació de la imatge. / Idiomas de imagen generados por Empalme y Montaje Azulejos. La extensión del estudio de las lenguas oficiales sobre el caso string dos idiomas dimensionales o idiomas imagen ha sido de interés por mucho tiempo por sus vastas aplicaciones. En la tesis y el objeto de dos dimensiones más común estudiado es una imagen que es una matriz rectangular de símbolos tomados a partir de un alfabeto finito. E l objetivo de esta tesis se centra en el estudio de la generación de las clases de idiomas de imagen por las operaciones de bio-inspirados saber, `Empalme 'y` Auto-Asamblea' de ADN-Computing. A saber, sistema de empalme H-Array y sistemas de regla de mosaico. H-array Empalme Sistema es un formalismo bio-inspirado extendido desde H-empalme de la caja de cadena, un estudio ampliamente investigado introducido por T. Head. Está estructurado como un mecanismo mediante el estudio de las gramáticas lineales de dos dimensiones correctas. Este formalismo es un mecanismo que se aplica en el número finito de imágenes llamadas imágenes iniciales con determinado conjunto de reglas de empalme de dominó de columna y fila. El sitio de contexto en el que las dos imágenes se cortan en columnas y filas se decidió por la secuencia de dominós adyacentes en el conjunto de reglas. Y entonces el `pegar 'de la primera parte (o sub-array) de la imagen a la segunda parte de la imagen se realiza mediante la columna y fila concatenaciones respectivamente. El H-Array Empalme Sistemas se aplica sobre lenguas 2D-RLG generando idiomas Empalme H-Array (HASL). A continuación, las clases de restricciones definidas y de estudio son auto Cruz sobre matrices y lenguajes Empalme matriz simples y resultados incomparables se demostró con 2D-RLG, HASL. No son disjuntos y se cruzan lenguajes reconocibles. El segundo formalismo principal introducido y estudiado en la tesis son Revestimientos Sistema de reglas TRuS. Este formalismo genera la imagen por el conjunto de reglas de mosaico, montajes azulejos. Hemos demostrado que la clase de L (TS) (Sistema de alicatado, lenguaje reconocible) está contenida en la TRuS. Además, demostramos existen una construcción del formalismo basado en la generación de imágenes en filas o columnas que es equivalente a L (TS). La equivalencia se demuestra el uso de sistemas de Wang. / Picture languages generated by Splicing and Assembling Tiles. The extension of the study of formal languages over string case to two dimensional languages or picture languages has been of interest for long for its vast applications. In the thesis and the most common two-dimensional object studied is a picture which is a rectangular array of symbols taken from a finite alphabet. T he objective of this thesis concentrates on the study of generation of Picture language classes by bio-inspired operations namely, `Splicing' and `Self-Assembly' of DNA-Computing. Namely, H-Array Splicing System and Tiling Rule Systems. H-array Splicing Systems is a bio-inspired formalism extended from H-Splicing from string case, a vastly investigated study introduced by T. Head. In particular it is structured as a mechanism by studying two-dimensional right linear grammars. In elaborate this formalism is a mechanism which is applied on finite number of pictures called initial pictures with given set of column and row domino splicing rules. The context site where the two pictures are cut in columns and rows are decided by the sequence of adjacent dominoes in the set of rules. And then the `pasting' of the first part (or sub-array) of the picture to the second part of the picture is done by column and row concatenations respectively. The H-Array Splicing Systems is applied over 2D-RLG languages generating H-Array Splicing languages (HASL). Then the restriction classes defined and study are Self Cross over Arrays and Simple Array Splicing languages and incomparable results are proved with 2D-RLG, HASL. They are not disjoint and they intersect Recognizable languages. Another and the second main formalism introduced and studied in the thesis is Tiling Rule System TRuS . This formalism generates picture by set of tiling rules, assembling tiles. We have proved that the class of L(TS) (Tiling System, recognizable language) is contained in TRuS . Also, we prove there exist a construct of the formalism based on generating pictures in rows or columns which is equivalent to L(TS). The equivalence is proved using Wang systems. Thus leading to an interesting notion of bio-inspired (self-assembling) operation to picture generation.
39

High dimension and symmetries in quantum information theory

Lancien, Cécilia 09 June 2016 (has links)
En unas palabras, el tema de esta tesis se podría resumir como: fenómenos varios en alta (pero finita) dimensión en teoría cuántica de la información. Dicho esto, sin embargo podemos dar algunos detalles de más. Empezando con la observación que la física cuántica ineludiblemente tiene que tratar con objetos de alta dimensión, se pueden seguir esencialmente dos caminos: o intentar reducir su estudio al de otros que tienen dimensión más baja, o intentar comprender qué tipo de comportamiento universal surge precisamente en este régimen. Aquí no elegimos cuál de estas dos posturas hay que adoptar, sino que oscilamos constantemente entre una y la otra. En la primera parte de este manuscrito (Capítulos 5 y 6), nuestro objetivo es reducir al mínimo posible la complejidad de ciertos procesos cuánticos, preservando sus características esenciales. Los dos tipos de procesos que nos interesan son canales cuánticos y medidas cuánticas. En ambos casos, la complejidad de una transformaci ón se cuantifica con el número de operadores necesarios para describir su acción, y la proximidad entre la transformación de origen y su aproximación se define por el hecho de que, cualquiera que sea el estado de entrada, los respectivos estados de salida deben ser suficientemente similares. Proponemos maneras universales de alcanzar nuestras metas de compresión de canales cuánticos y rarefacción de medidas cuánticas (basadas en construcciones aleatorias) y demostramos su optimalidad. En contrapartida, la segunda parte de este manuscrito (Capítulos 7, 8 y 9) se dedica específicamente al análisis de sistemos cuánticos de alta dimensión y sus rasgos típicos. El énfasis se pone sobre sistemos multipartidos y sus propiedades de entrelazamiento. En resumen, establecemos principalmente lo siguiente: cuando las dimensiones de los espacios subyacentes aumentan, es genérico para estados cuánticos multipartidos ser prácticamente indistinguible mediante observaciones locales, y es genérico para relajaciones de la noción de separabilidad ser burdas aproximaciones de ella. Desde un punto de vista técnico, estos resultados se derivan de estimaciones de promedio para supremosa de procesos gaussianos, combinadas con el fenómeno de concentración de la medida. En la tercera parte de este manuscrito (Capítulos 10 y 11), finalmente volvemos a una filosofía de reducción de dimensionalidad. Pero esta vez, nuestra estrategia es utilizar las simetrías inherentes a cada situación particular que consideramos para derivar una simplificación adecuada. Vinculamos de manera cuantitativa simetría por permutación y independencia, lo que nos permite establecer el comportamiento multiplicativo de varias cuantidades que ocurren en teoría cuántica de la información (funciones de soporte de conjuntos de estados, probabilidad de éxito en juegos multi-jugadores no locales etc.). La principal herramienta técnica que desarrollamos con este fin es un resultado de tipo de Finetti muy adaptable. / S'il fallait résumer le sujet de cette thèse en une expression, cela pourrait être quelque chose comme: phénomènes de grande dimension (mais néanmoins finie) en théorie quantique de l'information. Cela étant dit, essayons toutefois de développer brièvement. La physique quantique a inéluctablement afiaire à des objets de grande dimension. Partant de cette observation, il y a, en gros, deux stratégies qui peuvent être adoptées: ou bien essayer de ramener leur étude à celle de situations de plus petite dimension, ou bien essayer de comprendre quels sont les comportements universels précisément susceptibles d'émerger dans ce régime. Nous ne donnons ici notre préférence à aucune de ces deux attitudes, mais au contraire oscillons constamment entre l'une et l'autre. Notre but dans la première partie de ce manuscrit (Chapitres 5 et 6) est de réduire autant que possible la complexité de certains processus quantiques, tout en préservant, évidemment, leurs caractéristiques essentielles. Les deux types de processus auxquels nous nous intéressons sont les canaux quantiques et les mesures quantiques. Dans les deux cas, la complexité d'une transformation est mesurée par le nombre d'opérateurs nécessaires pour décrire son action, tandis que la proximité entre la transformation d'origine et son approximation est définie par le fait que, quel que soit l'état d'entrée, les deux états de sortie doivent être proches l'un de l'autre. Nous proposons des solutions universelles (basées sur des constructions aléatoires) à ces problèmes de compression de canaux quantiques et d'amenuisement de mesures quantiques, et nous prouvons leur optimalité. La deuxième partie de ce manuscrit (Chapitres 7, 8 et 9) est, au contraire, spécifiquement dédiée à l'analyse de systèmes quantiques de grande dimension et certains de leurs traits typiques. L'accent est mis sur les systèmes multi-partites et leurs propriétés ayant un lien avec l'intrication. Les principaux résultats auxquels nous aboutissons peuvent se résumer de la façon suivante: lorsque les dimensions des espaces sous-jacents augmentent, il est générique pour les états quantiques multi-partites d'être à peine distinguables par des observateurs locaux, et il est générique pour les relaxations de la notion de séparabilité d'en être des approximations très grossières. Sur le plan technique, ces assertions sont établies grâce à des estimations moyennes de suprema de processus gaussiens, combinées avec le phénomène de concentration de la mesure. Dans la troisième partie de ce manuscrit (Chapitres 10 et 11), nous revenons pour finir à notre état d'esprit de réduction de dimensionnalité. Cette fois pourtant, la stratégie est plutôt: pour chaque situation donnée, tenter d'utiliser au maximum les symétries qui lui sont inhérentes afin d'obtenir une simplification qui lui soit propre. En reliant de manière quantitative symétrie par permutation et indépendance, nous nous retrouvons en mesure de montrer le comportement multiplicatif de plusieurs quantités apparaissant en théorie quantique de l'information (fonctions de support d'ensembles d'états, probabilités de succès dans des jeux multi-joueurs non locaux etc.). L'outil principal que nous développons dans cette optique est un résultat de type de Finetti particulièrement malléable. / If a one-phrase summary of the subject of this thesis were required, it would be something like: miscellaneous large (but finite) dimensional phenomena in quantum information theory. That said, it could nonetheless be helpful to briefly elaborate. Starting from the observation that quantum physics unavoidably has to deal with high dimensional objects, basically two routes can be taken: either try and reduce their study to that of lower dimensional ones, or try and understand what kind of universal properties might precisely emerge in this regime. We actually do not choose which of these two attitudes to follow here, and rather oscillate between one and the other. In the first part of this manuscript, our aim is to reduce as much as possible the complexity of certain quantum processes, while of course still preserving their essential characteristics. The two types of processes we are interested in are quantum channels and quantum measurements. In both cases, complexity of a transformation is measured by the number of operators needed to describe its action, and proximity of the approximating transformation towards the original one is defined in terms of closeness between the two outputs, whatever the input. We propose universal ways of achieving our quantum channel compression and quantum measurement sparsification goals (based on random constructions) and prove their optimality. Oppositely, the second part of this manuscript is specifically dedicated to the analysis of high dimensional quantum systems and some of their typical features. Stress is put on multipartite systems and on entanglement-related properties of theirs. We essentially establish the following: as the dimensions of the underlying spaces grow, being barely distinguishable by local observers is a generic trait of multipartite quantum states, and being very rough approximations of separability itself is a generic trait of separability relaxations. On the technical side, these statements stem mainly from average estimates for suprema of Gaussian processes, combined with the concentration of measure phenomenon. In the third part of this manuscript, we eventually come back to a more dimensionality reduction state of mind. This time though, the strategy is to make use of the symmetries inherent to each particular situation we are looking at in order to derive a problem-dependent simplification. By quantitatively relating permutation-symmetry and independence, we are able to show the multiplicative behaviour of several quantities showing up in quantum information theory (such as support functions of sets of states, winning probabilities in multi-player non-local games etc.). The main tool we develop for that purpose is an adaptable de Finetti type result.
40

New approaches for electronic voting paradigms

Mateu Meseguer, Víctor 21 November 2015 (has links)
La democràcia es el sistema de govern més utilitzat al món. No obstant, en un món cada vegada més globalitzat, la idea de mobilitzar la gent per votar en un col·legi electoral gestionat per persones resulta antiquada tot i ser la implementació més comú en l'actualitat. Millorar aquesta situació mitjançant l'ús de les tecnologies de la informació sembla una evolució òbvia i molt demanada però, malgrat l'existència d'algunes implementacions en entorns reals, encara no ha estat utilitzada excepte en comptades ocasions. Obrir la porta d'unes eleccions a les tecnologies de la informació implica l'obertura dels protocols de votació a un nou conjunt d'atacs contra aquests. Tenint en compte els requisits d'una elecció: privacitat del votant i integritat de l'elecció, les solucions actuals passen per implementar l'elecció seguint un dels tres paradigmes de vot segurs: barreja de vots, recompte homomòrfic o signatura cega. En aquesta tesi, es proposen nous protocols per als diferents paradigmes. La primera proposta consisteix en un sistema de vot que, basant-se en una informació redundant enviada pel votant, és capaç de realitzar una barreja de vots amb cost negligible incrementant lleugerament el cost del recompte. Per al paradigma de recompte homomòrfic, es proposa una prova de validesa del vot basada en les proves utilitzades per demostrar la correctesa en sistemes amb barreja de vots. Aquesta solució permet utilitzar les millores realitzades sobre el paradigma de barreja de vots per al seu ús en el paradigma de recompte homomòrfic. Finalment, es plantegen dues solucions per a eleccions del paradigma de signatura cega. La primera utilitza credencials generades amb signatura cega per permetre als votants vàlids enviar el seu vot sense que es conegui la seva identitat. La segona resol el problema del vot doble en aquest paradigma mitjan cant una construcció que utilitza un sistema de moneda electrònica off-line. / La democracia es el sistema de gobierno más usado en el mundo. No obstante, en un mundo cada vez más globalizado, la idea de movilizar a la gente para votar en un colegio electoral gestionado por personas resulta anticuada a pesar de ser la implementación más común en la actualidad. Mejorar esta situación mediante el uso de las tecnologías de la información parece una evolución obvia y muy solicitada pero, a pesar de unas pocas adaptaciones, aún no ha sido usada salvo en escasas ocasiones. Abrir la puerta de unas elecciones a las tecnologías de la información lleva implícita la apertura de los protocolos de voto a un nuevo conjunto de ataques contra estos. Teniendo en cuenta los requisitos de una elección: privacidad del votante e integridad de la elección, las soluciones actuales pasan por implementar la elección siguiendo uno de los tres paradigmas de voto seguros: mezcla de votos, recuento homomórfico o firma ciega. En esta tesis, se proponen nuevos protocolos para los distintos paradigmas. La primera propuesta consiste en un sistema de voto bajo el paradigma de mezcla de votos que, basándose en una información redundante enviada por el votante, es capaz de realizar una mezcla de votos con un coste negligible incrementando ligeramente el coste del recuento. Para el paradigma de recuento homomórfico, se propone una prueba para verificar que el voto es válido basada en las pruebas de correctitud en sistemas con mezcla de votos. Esta solución permite usar las mejoras realizadas en el paradigma de mezcla de votos para su uso en el paradigma de recuento homomórfico. Finalmente, se proponen dos nuevos protocolos del paradigma de firma ciega. El primero utiliza credenciales generadas con firma ciega para permitir a votantes válidos enviar su voto sin que se conozca su identidad. El segundo resuelve el problema del voto doble en el paradigma de firma ciega mediante una construcción que utiliza un sistema de moneda electrónica off-line. / Democracy is the most established government system in the world. However, in an increasingly globalized world, the idea of requiring people to move in order to cast their vote in the polling station seems outdated, even though it is, nowadays, the most common implementation. An obvious and widely demanded evolution is to improve the election framework by enabling the use of information technologies. Nevertheless, this solution has been implemented few times in real environment elections and the global success of these solutions have been called into question. The use of information technologies in voting protocols improves the quality of the election but, at the same time, it also opens up the voting protocols to new threats. Keeping this attacks in mind and given the election requirements: voter's privacy and election's integrity, the solutions proposed up to date are to implement one of the three secure voting paradigms: mixtype based, homomorphic tally, and blind signature. In this thesis, we present new protocols for the di erent paradigms. Our rst proposal, based on the mix-type paradigm, consists in a voting protocol which is able to perform the ballot mix with negligible cost but slightly increasing the tally cost. The proposed protocol makes use of a proper vote generation based on sending secret redundant information with the ballot when it is cast. For the homomorphic tally paradigm, we propose a zero knowledge proof of correctness of the ballot based on the proofs used to demonstrate the correctness of a shu e in the mix-type paradigm. This protocol makes possible to use the improvements on the shu e correctness proofs in the homomorphic tally paradigm. Finally, two di erent protocols are also proposed for the blind signature paradigm. The rst one uses credentials generated by means of a blind signature which allow eligible voters to cast their vote without leaking information about their identity. The second one is focused on solving the double voting problem in this paradigm. The protocol proposed uses o -line e-coin systems to provide anonymity disclosure in case of double voting.

Page generated in 0.0693 seconds