• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 56
  • 31
  • 2
  • 1
  • Tagged with
  • 87
  • 34
  • 29
  • 20
  • 18
  • 17
  • 13
  • 13
  • 13
  • 12
  • 12
  • 11
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Bornes inférieures et algorithmes de reconstruction pour des sommes de puissances affines / Lower bounds and reconstruction algorithms for sums of affine powers

Pecatte, Timothée 11 July 2018 (has links)
Le cadre général de cette thèse est l'étude des polynômes comme objets de modèles de calcul. Cette approche permet de définir de manière précise la complexité d'évaluation d'un polynôme, puis de classifier des familles de polynômes en fonction de leur difficulté dans ce modèle. Dans cette thèse, nous nous intéressons en particulier au modèle AffPow des sommes de puissance de forme linéaire, i.e. les polynômes qui s'écrivent $f = \sum_{i = 1}^s \alpha_i \ell_i^{e_i}$, avec $\deg \ell_i = 1$. Ce modèle semble assez naturel car il étend à la fois le modèle de Waring $f = \sum \alpha_i \ell_i^d$ et le modèle du décalage creux $f = \sum \alpha_i \ell^{e_i}$, mais peu de résultats sont connus pour cette généralisation.Nous avons pu prouver des résultats structurels pour la version univarié de ce modèle, qui nous ont ensuite permis d'obtenir des bornes inférieures et des algorithmes de reconstruction, qui répondent au problème suivant : étant donné $f = \sum \alpha_i (x-a_i)^{e_i}$ par la liste de ses coefficients, retrouver les $\alpha_i, a_i, e_i$ qui apparaissent dans la décomposition optimale de $f$.Nous avons aussi étudié plus en détails la version multivarié du modèle, qui avait été laissé ouverte par nos précédents algorithmes de reconstruction, et avons obtenu plusieurs résultats lorsque le nombre de termes dans une expression optimale est relativement petit devant le nombre de variables ou devant le degré du polynôme. / The general framework of this thesis is the study of polynomials as objects of models of computation. This approach allows to define precisely the evaluation complexity of a polynomial, and then to classify families of polynomials depending on their complexity. In this thesis, we focus on the study of the model of sums of affine powers, that is polynomials that can be written as $f = \sum_{i = 1}^s \alpha_i \ell_i^{e_i}$, with $\deg \ell_i = 1$.This model is quite natural, as it extends both the Waring model $f = \sum \alpha_i \ell_i^d$ , and the sparsest shift model $f = \sum \alpha_i \ell^{e_i}$, but it is still not well known.In this work, we obtained structural results for the univariate variant of this model, which allow us to obtain lower bounds and reconstruction algorithms, that solve the following problem : given $f = \sum \alpha_i (x-a_i)^{e_i}$ as a list of its coefficient, find the values of the $\alpha_i$’s, $e_i$’s and $a_i$’s in the optimal decomposition of $f$.We also studied the multivariate case and obtained several reconstruction algorithms that work whenever the number of terms in the optimal expression is small in terms of the number of variable or the degree of the polynomial.
52

Thermo-elasto-plastic uncoupling model of width variation for online application in automotive cold rolling process / Modèle thermo-elasto-plastic découplé de la variation de largeur au laminage à froid pour les applications en temps réel

Ngo, Quang Tien 30 March 2015 (has links)
Afin d'optimiser la mise aux milles au laminage à froid, la thèse consiste à développer un modèle prédictif de variation de largeur à la fois précis et rapide pour des utilisations en temps réel. Des efforts ont commencé en 1960s en développant des formules empiriques. Par la suite, la Méthode des Bornes Supérieures (MBS) est devenue la plus connue. [Oh 1975] utilisant le champ de vitesse 3D "simple" prédit bien la variation de largeur au laminage en conditions d'un tandem finisseur. [Komori 2002] a proposé une combinaison des champs fondamentaux et obtenu une structure informatique peu dépendante aux champs de vitesse. Néanmoins, seuls deux champs fondamentaux ont été introduits qui forment un sous-ensemble de la famille 3D "simple". [Serek 2008] a étudié des champs de vitesse quadratique qui inclue la famille "simple" et donne des meilleurs résultats avec un temps de calcul plus long. Le premier résultat de la thèse est un modèle 2D (MBS) avec des champs de vitesse oscillante. Ce modèle aboutit à une vitesse optimale qui oscille spatialement le long de l'emprise. Les résultats (puissance, vitesse...) sont plus proches des ceux de Lam3-Tec3 que la MBS 2D "simple". Pour une modélisation 3D, nous avons choisi la MBS avec la vitesse 3D "simple" et obtenu un très bon accord avec les expériences réalisées sur des produits étroits à Arcelor Mittal [64]. En outre, un nouveau modèle MBS est développé pour une bande bombée et des cylindres droits. Les résultats montrent que la variation de largeur diminue avec la bombée de la bande et correspondent bien à ceux de Lam3-Tec3. Cependant, la MBS admet un comportement rigide-plastique tandis qu'au laminage des bandes larges les déformations élastique et thermique ont des impacts importants sur la déformation plastique. Les modèles existant prenant en compte ces phénomènes [23,64] sont couteux en temps de calcul. Ainsi, l'idée est de décomposer la variation de la largeur de plastique en trois termes : les variations de largeur totales, élastique et thermique à travers la zone de plastique déterminés par trois nouveaux modèles simplifiés. Les deux premiers permettent d'estimer les variations de largeur élastique et plastique avant et après l'emprise. Ils donnent aussi les conditions aux limites au modèle d'emprise qui est en effet la MBS avec le champ de vitesse 3D "simple" permettant d'estimer la variation de la largeur totale. En outre, avec les puissances de déformation et de dissipation plastique de frottement données par le même modèle, la variation de largeur thermique est également obtenue. Le modèle de variation de largeur est donc appelée UBM-Slab combiné, très rapide (0,05 s) et prédit avec précision la largeur de variation par rapport à Lam3-Tec3 (<6%) / In order to save material yields in cold rolling process, the thesis aims at developing a predictive width variation model accurate and fast enough to be used online. Many efforts began in the 1960s in developing empirical formula. Afterward, the Upper Bound Method (UBM ) became more common. [Oh 1975]'s model with 3D "simple" velocity field estimates well the width variation for finishing mill rolling conditions. [Komori 2002] proposed a combination of fundamental ones to obtain a computer program depending minimally on the assumed velocity fields. However, only two fundamental fields were introduced and formed a subset of the "simple" family. [Serek 2008] studied a quadratic velocity family that includes the "simple" one and leads to better results with a higher computing time. Focusing on UBM , the first result of the thesis is a 2D model with an oscillating velocity field family. The model results to an optimum velocity that oscillates spatially throughout the roll-bite. The optimum power and the velocity field are closer to Lam3-Tec3 results than the "simple" one. For 3D modelling, we chose the 3D "simple" UBM and carried a comparison to the experiments performed at Arcelor Mittal using narrow strips [64]. A very good agreement is obtained. Further, a new UBM model is developed for a crowned strip with cylindrical work-rolls. It shows that the width variation decreases as a function of the strip crown and the results match well those of Lam3-Tec3 . However, the UBM considers only a rigid-plastic behaviour while in large strip rolling, the elastic and thermal deformations have important impacts on the plastic one. There exist some models considering these phenomena [23,64] but they are all time-consuming. Thus, the idea is to decompose the plastic width variation into three terms : total, elastic and thermal width variations through the plastic zone that are determined by three new models. The simplified roll-bite entry & exit models allow estimating the elastic and plastic width variations before and after the roll-bite. They give equally the longitudinal stresses defining the boundary conditions for the roll-bite model which is indeed the 3D "simple" UBM approximating the total width variation term. Moreover, with the plastic deformation and friction dissipation powers given by the same model, the thermal width variation term is also obtained. The width variation model, called UBM-Slab combined is very fast (0.05s) and predicts accurately the width variation in comparison with Lam3-Tec3 (<6%)
53

Contributions to arithmetic complexity and compression / Contributions à la complexité arithmétique et à la compression

Lagarde, Guillaume 05 July 2018 (has links)
Cette thèse explore deux territoires distincts de l’informatique fondamentale : la complexité et la compression. Plus précisément, dans une première partie, nous étudions la puissance des circuits arithmétiques non commutatifs, qui calculent des polynômes non commutatifs en plusieurs indéterminées. Pour cela, nous introduisons plusieurs modèles de calcul, restreints dans leur manière de calculer les monômes. Ces modèles en généralisent d’autres, plus anciens et largement étudiés, comme les programmes à branchements. Les résultats sont de trois sortes. Premièrement, nous donnons des bornes inférieures sur le nombre d’opérations arithmétiques nécessaires au calcul de certains polynômes tels que le déterminant ou encore le permanent. Deuxièmement, nous concevons des algorithmes déterministes fonctionnant en temps polynomial pour résoudre le problème du test d’identité polynomiale. Enfin, nous construisons un pont entre la théorie des automates et les circuits arithmétiques non commutatifs, ce qui nous permet de dériver de nouvelles bornes inférieures en utilisant une mesure reposant sur le rang de la matrice dite de Hankel, provenant de la théorie des automates. Une deuxième partie concerne l’analyse de l’algorithme de compression sans perte Lempel-Ziv. Pourtant très utilisé, sa stabilité est encore mal établie. Vers la fin des années 90s, Jack Lutz popularise la question suivante, connue sous le nom de « one-bit catastrophe » : « étant donné un mot compressible, est-il possible de le rendre incompressible en ne changeant qu’un seul bit ? ». Nous montrons qu’une telle catastrophe est en effet possible. Plus précisément, en donnant des bornes optimales sur la variation de la taille de la compression, nous montrons qu’un mot « très compressible » restera toujours compressible après modification d’un bit, mais que certains mots « peu compressibles » deviennent en effet incompressibles. / This thesis explores two territories of computer science: complexity and compression. More precisely, in a first part, we investigate the power of non-commutative arithmetic circuits, which compute multivariate non-commutative polynomials. For that, we introduce various models of computation that are restricted in the way they are allowed to compute monomials. These models generalize previous ones that have been widely studied, such as algebraic branching programs. The results are of three different types. First, we give strong lower bounds on the number of arithmetic operations needed to compute some polynomials such as the determinant or the permanent. Second, we design some deterministic polynomial-time algorithm to solve the white-box polynomial identity problem. Third, we exhibit a link between automata theory and non-commutative arithmetic circuits that allows us to derive some old and new tight lower bounds for some classes of non-commutative circuits, using a measure based on the rank of a so-called Hankel matrix. A second part is concerned with the analysis of the data compression algorithm called Lempel-Ziv. Although this algorithm is widely used in practice, we know little about its stability. Our main result is to show that an infinite word compressible by LZ’78 can become incompressible by adding a single bit in front of it, thus closing a question proposed by Jack Lutz in the late 90s under the name “one-bit catastrophe”. We also give tight bounds on the maximal possible variation between the compression ratio of a finite word and its perturbation—when one bit is added in front of it.
54

PAC-Bayesian estimation of low-rank matrices / Estimation PAC-bayésienne de matrices de faible rang

MAI, The Tien 23 June 2017 (has links)
Les deux premi`eres parties de cette th`ese 'etudient respectivement des estimateurs pseudo-bay'esiens dans les probl`emes de compl'etion de matrices, et de tomographie quantique. Dans chaque probl`eme, on propose une loi a priori qui induit des matrices de faible rang. On 'etudie les performances statistiques: dans chacun des deux cas, on prouve des vitesses de convergence pour nos estimateurs. Notre analyse repose essentiellement sur des in'egalit'es PAC-Bay'esiennes. On propose aussi un algorithme MCMC pour impl'ementer notre estimateur. On teste ensuite ses performances sur des donn'ees simul'ees, et r'eelles. La derni`ere partie de la th`ese 'etudie le probl`eme de lifelong learning (que l'on peut traduire par apprentissage au long cours), o`u de l'information est conserv'ee et transf'er'ee d'un probl`eme d'apprentissage `a un autre. Nous proposons une formalisation de ce probl`eme dans un contexte de pr'ediction s'equentielle. Nous proposons un m'eta-algorithme pour le transfert d'information, qui repose sur l'agr'egation `a poids exponentiels. On prouve une borne sur le regret de cette m'ethode. Un avantage important de notre analyse est qu'elle ne requiert aucune hypoth`ese sur la forme des algorithmes d'apprentissages utilis'es `a l'int'erieur de chaque probl`eme. On termine cette partie par l''etude de quelques exemples: cas d'un nombre fini de pr'edicteurs, apprentissage d'une direction r'ev'elatrice, et apprentissage d'un dictionnaire. / The first two parts of the thesis study pseudo-Bayesian estimation for the problem of matrix completion and quantum tomography. A novel low-rank inducing prior distribution is proposed for each problem. The statistical performance is examined: in each case we provide the rate of convergence of the pseudo-Bayesian estimator. Our analysis relies on PAC-Bayesian oracle inequalities. We also propose an MCMC algorithm to compute our estimator. The numerical behavior is tested on simulated and real data sets. The last part of the thesis studies the lifelong learning problem, a scenario of transfer learning, where information is transferred from one learning task to another. We propose an online formalization of the lifelong learning problem. Then, a meta-algorithm is proposed for lifelong learning. It relies on the idea of exponentially weighted aggregation. We provide a regret bound on this strategy. One of the nice points of our analysis is that it makes no assumption on the learning algorithm used within each task. Some applications are studied in details: finite subset of relevant predictors, single index model, dictionary learning.
55

Key agreement against quantum adversaries

Kalach, Kassem 08 1900 (has links)
Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases. / Un protocole d'échange de clés est un scénario cryptographique entre deux partis légitimes ayant besoin de se mettre d'accord sur une clé commune secrète via un canal public authentifié où tous les messages sont interceptés par un espion voulant connaître leur secret. Nous considérons un canal classique et mesurons la complexité de calcul en termes du nombre d'évaluations (requêtes) d'une fonction donnée par une boîte noire. Ralph Merkle fut le premier à proposer un schéma non classifié permettant de réaliser des échanges securisés avec des canaux non securisés. Lorsque les partis légitimes sont capables de faire O(N) requêtes pour un certain paramètre N, tout espion classique doit faire Omega(N^2) requêtes avant de pouvoir apprendre leur secret, ce qui est optimal. Cependant, un espion quantique peut briser ce schéma avec O(N) requêtes. D'ailleurs, il a été conjecturé que tout protocole, dont les partis légitimes sont classiques, pourrait être brisé avec O(N) requêtes quantiques. Dans cette thèse, nous introduisons deux catégories des protocoles à la Merkle. Lorsque les partis légitimes sont restreints à l'utilisation des ordinateurs classiques, nous offrons le premier schéma classique sûr. Il oblige tout adversaire quantique à faire Omega(N^{13/12}) requêtes avant d'apprendre le secret. Nous offrons aussi un protocole ayant une sécurité de Omega(N^{7/6}) requêtes. En outre, pour tout k >= 2, nous donnons un protocole classique pour lequel les partis légitimes établissent un secret avec O(N) requêtes alors que la stratégie optimale d'espionnage quantique nécessite Theta(N^{1/2 + k/{k +1}}) requêtes, se rapprochant de Theta(N^{3/2}) lorsque k croît. Lors les partis légitimes sont équipés d'ordinateurs quantiques, nous présentons deux protocoles supérieurs au meilleur schéma connu avant ce travail. En outre, pour tout k >= 2, nous offrons un protocole quantique pour lequel les partis légitimes établissent un secret avec O(N) requêtes alors que l'espionnage quantique optimale nécessite Theta(N^{1+{k}/{k+1}}) requêtes, se rapprochant de Theta(N^{2}) lorsque k croît.
56

Simulation and optimization models for scheduling and balancing the public bicycle-sharing systems / Modéles de simulation et d'optimisation pour l'ordonnancement et l'équilibrage des systèmes de vélos en libre-service

Kadri, Ahmed Abdelmoumene 11 December 2015 (has links)
Les enjeux du développement durable, le réchauffement climatique, la pollution dans les grandes villes, la congestion et les nuisances sonores, l'augmentation des prix de carburants, sont parmi des nombreux facteurs qui incitent les pays développés à l'innovation dans les transports publics. Dans ce contexte, l'introduction des systèmes de vélos en libre-service, au cours de ces dernières années, est une des solutions adoptées par de nombreuses grandes villes. Malgré leur succès fulgurant dans le monde entier, il existe peu d'études fondamentales sur ce type transport urbain. Pourtant, leur exploitation et leur management par des opérateurs soulèvent de nombreuses questions notamment d'ordre opérationnel. Dans ce contexte, cette thèse s'adresse aux problèmes d'ordonnancement et de rééquilibrage des stations de vélos en libre-service. Ce sont des problèmes cruciaux pour la qualité de service et la viabilité économique de tels systèmes. Le rééquilibrage consiste à redistribuer le nombre de vélos entre les différentes stations afin de satisfaire au mieux les demandes des usagers. Cette régulation se fait souvent par le biais de véhicules spécifiques qui font des tournées autour des différentes stations. Ainsi, deux problèmes d'optimisation difficiles se posent : la recherche de la meilleure tournée du véhicule de régulation (ordonnancement de la tournée) et la détermination des nombres de véhicules à utiliser (rééquilibrage des stations). Dans cette optique, les travaux de cette thèse constituent une contribution à la modélisation et à l'optimisation de performances des systèmes de vélos en libre-service en vue de leur rééquilibrage et leur ordonnancement. Plusieurs méthodes d'optimisation et ont été développées et testées. De telles méthodes incorporent différentes approches de simulation ou d'optimisation comme les réseaux de Petri, les algorithmes génétiques, les algorithmes gloutons, les algorithmes de recherche par voisinage, la méthode arborescente de branch-and-bound, l'élaboration des bornes supérieures et inférieures, etc. Différentes facettes du problème ont été étudiées : le cas statique, le cas dynamique, l'ordonnancement et le rééquilibrage avec un seul (ou multiple) véhicule(s). Afin de montrer la pertinence de nos approches, la thèse comporte également plusieurs applications réelles et expérimentations / In our days, developed countries have to face many public transport problems, including traffic congestion, air pollution, global oil prices and global warming. In this context, Public Bike sharing systems are one of the solutions that have been recently implemented in many big cities around the world. Despite their apparent success, the exploitation and management of such transportation systems imply crucial operational challenges that confronting the operators while few scientific works are available to support such complex dynamical systems. In this context, this thesis addresses the scheduling and balancing in public bicycle-sharing systems. These problems are the most crucial questions for their operational efficiency and economic viability. Bike sharing systems are balanced by distributing bicycles from one station to another. This procedure is generally ensured by using specific redistribution vehicles. Therefore, two hard optimization problems can be considered: finding a best tour for the redistribution vehicles (scheduling) and the determination of the numbers of bicycles to be assigned and of the vehicles to be used (balancing of the stations). In this context, this thesis constitutes a contribution to modelling and optimizing the bicycle sharing systems' performances in order to ensure a coherent scheduling and balancing strategies. Several optimization methods have been proposed and tested. Such methods incorporate different approaches of simulation or optimization like the Petri nets, the genetic algorithms, the greedy search algorithms, the local search algorithms, the arborescent branch-and-bound algorithms, the elaboration of upper and lower bounds, ... Different variants of the problem have been studied: the static mode, the dynamic mode, the scheduling and the balancing by using a single or multiple vehicle(s). In order to demonstrate the coherence and the suitability of our approaches, the thesis contains several real applications and experimentations
57

Quantum coin flipping and bit commitment : optimal bounds, pratical constructions and computational security / Pile-ou-face et mise-en-gage de bit quantique : bornes optimales, constructions pratiques et sécurité calculatoire

Chailloux, André 24 June 2011 (has links)
L'avènement de l'informatique quantique permet de réétudier les primitives cryptographiques avec une sécurité inconditionnelle, c'est à dire sécurisé même contre des adversaires tout puissants. En 1984, Bennett et Brassard ont construit un protocole quantique de distribution de clé. Dans ce protocole, deux joueurs Alice et Bob coopèrent pour partager une clé secrète inconnue d'une tierce personne Eve. Ce protocole a une sécurité inconditionnelle et n'a pasd'équivalent classique.Dans ma thèse, j'ai étudié les primitives cryptographiques à deux joueurs où ces joueurs ne se font pas confiance. J'étudie principalement le pile ou face quantique et la mise-en-gage quantique de bit. En informatique classique, ces primitivessont réalisables uniquement avec des hypothèses calculatoires, c'est-à-dire en supposant la difficulté d'un problème donné. Des protocoles quantiques ont été construits pour ces primitives où un adversaire peut tricher avec une probabilité constante strictement inférieure à 1, ce qui reste impossible classiquement. Néanmoins, Lo et Chau ont montré l'impossibilité de créer ces primitives parfaitement même en utilisant l'informatique quantique. Il reste donc à déterminer quelles sont les limites physiques de ces primitives.Dans une première partie, je construis un protocole quantique de pile ou face où chaque joueur peut tricher avec probabilité au plus 1/racine(2) + eps pour tout eps > 0. Ce résultat complète un résultat de Kitaev qui dit que dans un jeu de pile ou face quantique, un joueur peut toujours tricher avec probabilité au moins 1/racine(2). J'ai également construit un protocole de mise-en-gage de bit quantique optimal où un joueur peut tricher avec probabilité au plus 0,739 + eps pour tout eps > 0 puis ai montré que ce protocole est en fait optimal. Finalement, j'ai dérivé des bornes inférieures et supérieures pour une autre primitive: la transmission inconsciente, qui est une primitive universelle.Dans une deuxième partie, j'intègre certains aspects pratiques dans ces protocoles. Parfois les appareils de mesure ne donnent aucun résultat, ce sont les pertes dans la mesure. Je construis un protocole de lancer de pièce quantique tolérant aux pertes avec une probabilité de tricher de 0,859. Ensuite, j'étudie le modèle dispositif-indépendant où on ne suppose plus rien sur les appareils de mesure et de création d'état quantique.Finalement, dans une troisième partie, j'étudie ces primitives cryptographiques avec un sécurité computationnelle. En particulier, je fais le lien entre la mise en gage de bit quantique et les protocoles zero-knowledge quantiques. / Quantum computing allows us to revisit the study of quantum cryptographic primitives with information theoretic security. In 1984, Bennett and Brassard presented a protocol of quantum key distribution. In this protocol, Alice and Bob cooperate in order to share a common secret key k, which has to be unknown for a third party that has access to the communication channel. They showed how to perform this task quantumly with an information theoretic security; which is impossible classically.In my thesis, I study cryptographic primitives with two players that do not trust each other. I study mainly coin flipping and bit commitment. Classically, both these primitives are impossible classically with information theoretic security. Quantum protocols for these primitives where constructed where cheating players could cheat with probability stricly smaller than 1. However, Lo, Chau and Mayers showed that these primitives are impossible to achieve perfectly even quantumly if one requires information theoretic security. I study to what extent imperfect protocols can be done in this setting.In the first part, I construct a quantum coin flipping protocol with cheating probabitlity of 1/root(2) + eps for any eps > 0. This completes a result by Kitaev who showed that in any quantum coin flipping protocol, one of the players can cheat with probability at least 1/root(2). I also constructed a quantum bit commitment protocol with cheating probability 0.739 + eps for any eps > 0 and showed that this protocol is essentially optimal. I also derived some upper and lower bounds for quantum oblivious transfer, which is a universal cryptographic primitive.In the second part, I study some practical aspects related to these primitives. I take into account losses than can occur when measuring a quantum state. I construct a Quantum Coin Flipping and Quantum Bit Commitment protocols which are loss-tolerant and have cheating probabilities of 0.859. I also construct these primitives in the device independent model, where the players do not trust their quantum device. Finally, in the third part, I study these cryptographic primitives with information theoretic security. More precisely, I study the relationship between computational quantum bit commitment and quantum zero-knowledge protocols.
58

Analyse des bornes extrêmes et le contrôle des armes à feu : l’effet de la Loi C-68 sur les homicides au Québec

Linteau, Isabelle 12 1900 (has links)
Contexte et objectifs. En 1995, le gouvernement canadien a promulgué la Loi C-68, rendant ainsi obligatoire l’enregistrement de toutes les armes à feu et affermissant les vérifications auprès des futurs propriétaires. Faute de preuves scientifiques crédibles, le potentiel de cette loi à prévenir les homicides est présentement remis en question. Tout en surmontant les biais potentiels retrouvés dans les évaluations antérieures, l’objectif de ce mémoire est d’évaluer l’effet de la Loi C-68 sur les homicides au Québec entre 1974 et 2006. Méthodologie. L’effet de la Loi C-68 est évalué à l’aide d’une analyse des bornes extrêmes. Les effets immédiats et graduels de la Loi sont évalués à l’aide de 372 équations. Brièvement, il s’agit d’analyses de séries chronologiques interrompues où toutes les combinaisons de variables indépendantes sont envisagées afin d’éviter les biais relatifs à une spécification arbitraire des modèles. Résultats. L’introduction de la Loi C-68 est associée à une baisse graduelle des homicides commis à l’aide d’armes longues (carabines et fusils de chasse), sans qu’aucun déplacement tactique ne soit observé. Les homicides commis par des armes à feu à autorisation restreinte ou prohibées semblent influencés par des facteurs différents. Conclusion. Les résultats suggèrent que le contrôle des armes à feu est une mesure efficace pour prévenir les homicides. L’absence de déplacement tactique suggère également que l’arme à feu constitue un important facilitateur et que les homicides ne sont pas tous prémédités. D’autres études sont toutefois nécessaires pour clairement identifier les mécanismes de la Loi responsables de la baisse des homicides. / Context and objectives. Laws with extensive background checks and making mandatory the registration of all guns have been adopted by some governments to prevent firearms-related homicides. On the other hand, methodological flaws found in previous evaluations question the potential of such laws to prevent gun homicides. By taking into account previous limitations, the main objective of this study is to estimate the effect of Bill C-68 on homicides committed in the Province of Quebec, Canada, between 1974 and 2006. Methodology. Using extreme bounds analysis, we assess the effect of Bill C-68 on homicides. Estimates of the immediate and gradual effects of the law are based on a total of 372 equations. More precisely, interrupted time series analyses were conducted, using all possible variable combinations, in order to overcome biases related to model specification. Results. We found that Bill C-68 is associated with a significant and gradual decline in homicides committed with a long gun (either a riffle or a shotgun). The substitution effects are not robust with respect to different model specifications. Patterns observed in homicides involving restricted or prohibited firearms suggest that they are influenced by different factors, not considered in our analyses. Conclusion. Results suggest that enhanced firearm control laws are an effective tool to prevent homicides. The lack of tactical displacement supports the concept of firearm as a crime facilitator and suggests that all homicides are not carefully planned. Other studies are however needed to pinpoint law provisions accountable for the decrease in homicides.
59

Complexité de la communication sur un canal avec délai

Lapointe, Rébecca 02 1900 (has links)
Nous introduisons un nouveau modèle de la communication à deux parties dans lequel nous nous intéressons au temps que prennent deux participants à effectuer une tâche à travers un canal avec délai d. Nous établissons quelques bornes supérieures et inférieures et comparons ce nouveau modèle aux modèles de communication classiques et quantiques étudiés dans la littérature. Nous montrons que la complexité de la communication d’une fonction sur un canal avec délai est bornée supérieurement par sa complexité de la communication modulo un facteur multiplicatif d/ lg d. Nous présentons ensuite quelques exemples de fonctions pour lesquelles une stratégie astucieuse se servant du temps mort confère un avantage sur une implémentation naïve d’un protocole de communication optimal en terme de complexité de la communication. Finalement, nous montrons qu’un canal avec délai permet de réaliser un échange de bit cryptographique, mais que, par lui-même, est insuffisant pour réaliser la primitive cryptographique de transfert équivoque. / We introduce a new communication complexity model in which we want to determine how much time of communication is needed by two players in order to execute arbitrary tasks on a channel with delay d. We establish a few basic lower and upper bounds and compare this new model to existing models such as the classical and quantum two-party models of communication. We show that the standard communication complexity of a function, modulo a factor of d/ lg d, constitutes an upper bound to its communication complexity on a delayed channel. We introduce a few examples on which a clever strategy depending on the delay procures a significant advantage over the naïve implementation of an optimal communication protocol. We then show that a delayed channel can be used to implement a cryptographic bit swap, but is insufficient on its own to implement an oblivious transfer scheme.
60

Homogénéisation des composites linéaires : Etude des comportements apparents et effectif / Homogenization of linear elastic matrix-inclusion composites : a study of their apparent and effective behaviors

Salmi, Moncef 02 July 2012 (has links)
Les travaux effectués au cours de cette thèse portent principalement sur la construction de nouvelles bornes du comportement effectif des matériaux biphasés de type matrice-inclusions à comportement linéaire élastique. Dans un premier temps, afin d’encadrer le comportement effectif, nous présentons une nouvelle approche numérique, inspirée des travaux de Huet (J. Mech. Phys. Solids 1990 ; 38:813-41), qui repose sur le calcul des comportements apparents associés à des volumes élémentaires (VE) non-carrés construits à partir d'assemblages de cellules de Voronoï, chaque cellule contenant une inclusion entourée de matrice. De tels VE non-carrés permettent d'éviter l'application directe des CL sur les inclusions à l’origine d’une surestimation artificielle des comportements apparents. En utilisant les théorèmes énergétiques de l'élasticité linéaire et des procédures de moyennisation appropriées portant sur les comportements apparents, un nouvel encadrement du comportement effectif est obtenu. Son application au cas d'un composite biphasé, constitué d'une matrice isotrope et de fibres cylindriques parallèles et identiques distribuées aléatoirement dans le plan transverse, conduit à des bornes plus resserrées que celles obtenues par Huet. En nous appuyant sur cette nouvelle procédure numérique, nous avons ensuite réalisé une étude statistique des comportements apparents à l'aide de simulations de type Monté Carlo. Puis, à partir des tendances issues de cette étude statistique, nous avons proposé et mis en œuvre de nouveaux critères de tailles de VER. / This work is devoted to the derivation of improved bounds for the effective behavior of random linear elastic matrix-inclusions composites. In order to bounds their effective behavior, we present a new numerical approach, inspired by the works of Huet (J. Mech. Phys. Solids 1990 ; 38:813-41), which relies on the computation of the apparent behaviors associated to non square (or non cubic) volume elements (VEs) comprised of Voronoï cells assemblages, each cell being composed of a single inclusion surrounded by the matrix. Such non-square VEs forbid any direct application of boundary conditions to particles which is responsible for the artificial overestimation of the apparent behaviors observed for square VEs. By making used of the classical bounding theorems for linear elasticity and appropriate averaging procedures, new bounds are derived from ensemble averages of the apparent behavior associated with non square VEs. Their application to a two-phase composite composed of an isotropic matrix and aligned identical fibers randomly and isotropically distributed in the transverse plane leads to sharper bounds than those obtained by Huet. Then, by making use of this new numerical approach, a statistical study of the apparent behavior is carried out by means of Monte Carlo simulations. Subsequently, relying on the trends derived from this study, some proposals to define RVE criteria are presented.

Page generated in 0.0388 seconds