• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Maîtrise du temps d'exécution de logiciels déployés dans des dispositifs personnels de confiance / Secure software deployment on trusted personal devices

Bel Hadj Aissa, Nadia 29 October 2008 (has links)
La prolifération de petits équipements ouverts tels que les dispositifs personnels de confiance a favorisé l'essor des environnements d'exécution dynamiquement adaptables. Ainsi, de nouveaux logiciels peuvent être déployés à la volée après que les équipements soient délivrés à leurs porteurs. Par nos travaux, nous aspirons à garantir que chaque nouveau logiciel, dont le déploiement aboutit, est en mesure de délivrer les réponses aux requêtes qui lui sont adressées dans un délai maximal préalablement établi. Les garanties apportées sont cruciales tant en terme de sûreté de fonctionnement que de sécurité. À cet effet, nous avons proposé de distribuer le calcul du temps d'exécution au pire cas à la manière des approches de codes porteurs de preuve. Le fournisseur de code se voit attribuer les calculs gourmands en ressources matérielles ne supposant aucune connaissance préalable de l'environnement d'exécution sur lequel s'exécutera son logiciel, en l'occurrence la détermination des bornes des boucles. Quant au consommateur, il vérifie grâce à la preuve les bornes inférées par le fournisseur et calcule le temps d'exécution au pire cas. Nous avons évalué expérimentalement le bien-fondé de notre démarche sur une architecture matérielle et logicielle répondant aux exigences des dispositifs personnels de confiance. Enfin, nous nous sommes préoccupés du cas où plusieurs logiciels, émanant d'entité différentes, coexistent. Nous avons mis l'accent sur l'impact de l'interaction entre ces logiciels sur les garanties préalablement apportées par le système sur le temps d'exécution au pire cas et nous avons ébauché une solution basée sur les contrats pour maintenir ces garanties. / The proliferation of small and open objects such as personal trusted devices has encouraged the spread of dynamically adaptable runtime environments. Thus, new software can be deployed on the fly after the devices are delivered to their holders. Through our work, we aim to ensure that each new software, whose deployment is successful, will be able to deliver responses within a maximum delay previously established. These guarantees are crucial in terms of safety and security. To this end, we propose to distribute the computation of worst case execution time. Our solution embraces a proof carrying code approach making distinction between a powerful but untrusted computer used to produce the code, and a safe but resource constrained code consumer. The producer does not assume any prior knowledge of the runtime environment on which its software will be executed. The code is statically analyzed to extract loop bounds and a proof containing this information is joint to the software. By a straightforward inspection of the code, the consumer can verify the validity of the proof and compute the global worst case execution time. We experimentally validate our approach on a hardware and software architecture which meets the requirements of trusted personal devices. Finally, we address the challenges raised when software from different service providers potentially untrusted can coexist and interact in a single device. We focus on the impact of the interaction between different software units on the guarantees previously given by the system on the worst case execution time and we outline a solution based on contracts to maintain these guarantees.
142

Caractérisation et identification de propriétés de matériaux métalliques à gradients de microstructure / Constitutive law identification and characterization of microstructure gradients in metals

Baudoin, Pierre 03 April 2015 (has links)
L'objectif de ces travaux de thèse est de proposer une démarche de caractérisation et de simulation de matériaux métalliques à gradients de microstructure. Ces résultats doivent permettre de modéliser l'impact du procédé de forgeage sur la tenue en fatigue à grand nombre de cycles d'essieux ferroviaires, produits dans le cadre du projet Innovaxle par la société Valdunes. Des essais de caractérisation réalisés sur un essieu forgé mettent en évidence un gradient de taille de grain entre le cœur et la surface de la pièce. Ce gradient est reproduit à une échelle plus fine sur des éprouvettes recristallisées en fer ARMCO, dont la caractérisation révèle un comportement élasto-plastique fortement hétérogène. Ce comportement est caractérisé à l'aide de la méthode F.E.M.U. (Finite Element Model Updating), qui appuie une hypothèse de modélisation basée sur l'application de la loi Hall-Petch à l'échelle mésoscopique. Cette modélisation sert de base à des simulations en fatigue décrivant la réponse à des sollicitations non-uniformes d'agrégats polycristallins à gradient de microstructure. L'intérêt de microstructures conçues en prévision de chargements spécifiques est mise en avant par ces simulations. Les calculs éléments finis présentés dans ces travaux sont réalisés avec le logiciel Code Aster, et le logiciel libre YADICS est utilisé pour la corrélation d'images numériques. / The main objective of this thesis is to design a consistent methodology for the characterization and simulation of functionally graded metals. This approach should allow the assessment of the high cycle fatigue response of forged railway axles produced by Valdunes, in the context of the Innovaxle project. The tests conducted on the forged material reveal a very heterogeneous microstructure, whose grain size varies in the width of the axle. A procedure based on recrystallisation is designed to reproduce this grain size gradient on a smaller scale, on a reference material (ARMCO iron). The characterization of the obtained graded microstructure shows heterogeneities in the local elasto-plastic response of the specimen. This behaviour is tentatively described by a heterogeneously distributed elasto-plastic law over the microstructure, the local yield strength being obtained from the local grain size through a Hall-Petch formulation. This model is used to simulate the response of graded microstructures under heterogeneous loadings in the high cycle fatigue regime. The interests of functionally graded materials are outlined by these simulations. The finite element simulations run in this work make use of the Code Aster software, and the digital image correlation program YADICS is used for image registration purposes.
143

Heterogeneity and locality-aware work stealing for large scale Branch-and-Bound irregular algorithms / Hétérogénéité et localité dans les protocoles distribués de vol de travail pour les algorithmes Branch-and-Bound irréguliers à large échelle

Vu, Trong-Tuan 12 December 2014 (has links)
Les algorithmes Branch-and-Bound (B&B) font partie des méthodes exactes pour la résolution de problèmes d’optimisation combinatoire. Les calculs induits par un algorithme B&B sont extrêmement couteux surtout lorsque des instances de grande tailles sont considérées. Un algorithme B&B peut être vu comme une exploration implicite d’un espace représenté sous la forme d’un arbre qui a pour spécificité d’être hautement irrégulier. Pour accélérer l’exploration de cet espace, les calculs parallèles et distribués à très large échelle sont souvent utilisés. Cependant, atteindre des performances parallèles optimales est un objectif difficile et jalonné de plusieurs défis, qui découlent essentiellement de deux facteurs: (i) l’irrégularité des calculs inhérents à l’arbre B&B et (ii) l’hétérogénéité inhérente aux environnements de calcul large échelle. Dans cette thèse, nous nous intéressons spécifiquement à la résolution de ces deux défis. Nous nous concentrons sur la conception d’algorithmes distribués pour l’équilibrage de charge afin de garantir qu’aucune entité de calcul n’est surchargée ou sous-utilisée. Nous montrons comment résoudre l’irrégularité des calculs sur différents type d’environnements, et nous comparons les approches proposées par rapport aux approches de références existantes. En particulier, nous proposons un ensemble de protocoles spécifiques à des contextes homogènes, hétérogène en terme de puissance de calcul (muti-coeurs, CPU et GPU), et hétérogènes en terme de qualité des lien réseaux. Nous montrons à chaque fois la supériorité de nos protocoles à travers des études expérimentales extensives et rigoureuses. / Branch and Bound (B&B) algorithms are exact methods used to solve combinatorial optimization problems (COPs). The computation process of B&B is extremely time-intensive when solving large problem instances since the algorithm must explore a very large space which can be viewed as a highly irregular tree. Consequently, B&B algorithms are usually parallelized on large scale distributed computing environments in order to speedup their execution time. Large scale distributed computing environments, such as Grids and Clouds, can provide a huge amount of computing resources so that very large B&B instances can be tackled. However achieving high performance is very challenging mainly because of (i) the irregular characteristics of B&B workload and (ii) the heterogeneity exposed by large scale computing environments. This thesis addresses and deals with the above issues in order to design high performance parallel B&B on large scale heterogeneous computing environments. We focus on dynamic load balancing techniques which are to guarantee that no computing resources are underloaded or overloaded during execution time. We also show how to tackle the irregularity of B&B while running on different computing environments, and consider to compare our proposed solutions with the state-of-the-art algorithms. In particular, we propose several dynamic load balancing algorithms for homogeneous, node-heterogeneous and link-heterogeneous computing platforms. In each context, our approach is shown to perform much better than the state-of-the-art approaches.
144

La spectroscopie Raman pour la lutte contre la contrefaçon et pour la sécurisation de la filière vin / The spectroscopy Raman for the fight against the forgery and for the reassurance of the sector wine

Martin, Coralie 16 March 2015 (has links)
Les enjeux économiques autour du vin sont importants et induisent de nombreuses fraudes. De nombreuses méthodes d'analyse chimique existent mais elles sont souvent destructives et invasives. La spectroscopie Raman est à priori prometteuse et n'a jamais été exploitée à des fins d'analyse, de traçabilité et d'authentification des vins. Le but de cette thèse est d'en évaluer le potentiel à travers l'étude d'un panel de vins et de solutions modèles. Nous avons en particulier, par une approche combinant expérience et simulations DFT, cherché à identifier les familles moléculaires à l'origine de la diffusion Raman et de l'émission de fluorescence induites par laser. / The economic stakes around the wine are important and lead to many frauds. Many methods of chemical analysis exist, but they are often destructive and invasive. Although Raman spectroscopy is a promising technique, it has never been used for analysis, traceability and anthentication of wines. The aim of this thesis is to evaluate its potential through the study of panel of wines and model solutions. It has been tried to identify, by an approach combining experiment and DFT simulations, the molecular families which lead to the Raman scattering and also to the emission of laser-induced fluorescence.
145

Stratégie multiparamétrique pour la conception robuste en fatigue / Multiparametric strategy for robust design in fatigue

Relun, Nicolas 12 December 2011 (has links)
La conception robuste de pièce mécaniques consiste à prendre en compte dans la modélisation les sources d'incertitudes.Le modèle devient alors assez représentatif de la réalité pour pouvoir diminuer les marges de sécurité, qui permettent de garantir que la pièce en fonctionnement ne sera pas mise en défaut.Dans le cas de pièces aérospatiales, une diminution des marges de sécurité est un enjeu économique majeur car cela entraîne une diminution du poids des pièces.La probabilité de défaillance est une des quantités critiques lors de la conception robuste. Celle-ci quantifie le risque de défaillance de la pièce en comparant la probabilité de résistance du matériau (caractérisée à partir d'essais sur éprouvettes) avec la probabilité de sollicitation du matériau, qui est déterminée à partir des contraintes extérieures à la pièce et des caractéristiques du matériau. C'est ce dernier problème qui a fait l'objet de cette thèse.Dans le cas d'un comportement non linéaire du matériau, la détermination de la probabilité de sollicitation impose d'exécuter de nombreuses fois un calcul de la pièce pour différentes valeurs des conditions aux limites et des paramètres du comportement matériau.Ceci devient rapidement hors de portée sans une stratégie adaptée, un calcul pouvant prendre jusqu'à 12 heures.Une stratégie dédiée à la résolution de l'ensemble de ces calculs est proposée dans ce travail. Elle tire parti de la similarité des calculs pour diminuer le temps total nécessaire. Un gain allant jusqu'à 30 est atteint sur des pièces industrielles simples en quasi-statique avec un comportement élasto-viscoplastique. / The robust design of mechanical parts consists in modeling the sources of uncertainty.The model becomes fairly representative of the reality in order to reduce safety margins, which guarantee that the operating part will not been at fault.In the case of aerospace parts, a reduction of safety margins is a major economic issue as it leads to a decrease in weight.The probability of failure is a critical quantity in the robust design. It quantifies the risk of failure of the part by comparing the likelihood of resistance of the material (characterized from tests on specimens) with the probability of solicitation of the material, which is determined from external constraints to the part and characteristics of the material. This last problem has been the subject of this thesis.In the case of a non-linear behavior of the material, determining the probability of solicitation requires to run many times a calculation of the part for different values of boundary conditions and parameters values of the material constitutive law.This is quickly becoming out of reach without an appropriate strategy, as one calculation can take up to 12 hours.A strategy dedicated to solving all of these calculations is proposed in this work. It takes advantage of the similarity of the calculations to reduce the total time required. A gain of up to 30 is reached on industrial parts with quasi-static elastic-viscoplastic behavior.
146

Simulation des réseaux à grande échelle sur les architectures de calculs hétérogènes / Large-scale network simulation over heterogeneous computing architecture

Ben Romdhanne, Bilel 16 December 2013 (has links)
La simulation est une étape primordiale dans l'évolution des systèmes en réseaux. L’évolutivité et l’efficacité des outils de simulation est une clef principale de l’objectivité des résultats obtenue, étant donné la complexité croissante des nouveaux des réseaux sans-fils. La simulation a évènement discret est parfaitement adéquate au passage à l'échelle, cependant les architectures logiciel existantes ne profitent pas des avancées récente du matériel informatique comme les processeurs parallèle et les coprocesseurs graphique. Dans ce contexte, l'objectif de cette thèse est de proposer des mécanismes d'optimisation qui permettent de surpasser les limitations des approches actuelles en combinant l’utilisation des ressources de calcules hétérogène. Pour répondre à la problématique de l’efficacité, nous proposons de changer la représentation d'événement, d'une représentation bijective (évènement-descripteur) à une représentation injective (groupe d'évènements-descripteur). Cette approche permet de réduire la complexité de l'ordonnancement d'une part et de maximiser la capacité d'exécuter massivement des évènements en parallèle d'autre part. Dans ce sens, nous proposons une approche d'ordonnancement d'évènements hybride qui se base sur un enrichissement du descripteur pour maximiser le degré de parallélisme en combinons la capacité de calcule du CPU et du GPU dans une même simulation. Les résultats comparatives montre un gain en terme de temps de simulation de l’ordre de 100x en comparaison avec une exécution équivalente sur CPU uniquement. Pour répondre à la problématique d’évolutivité du système, nous proposons une nouvelle architecture distribuée basée sur trois acteurs. / The simulation is a primary step on the evaluation process of modern networked systems. The scalability and efficiency of such a tool in view of increasing complexity of the emerging networks is a key to derive valuable results. The discrete event simulation is recognized as the most scalable model that copes with both parallel and distributed architecture. Nevertheless, the recent hardware provides new heterogeneous computing resources that can be exploited in parallel.The main scope of this thesis is to provide a new mechanisms and optimizations that enable efficient and scalable parallel simulation using heterogeneous computing node architecture including multicore CPU and GPU. To address the efficiency, we propose to describe the events that only differs in their data as a single entry to reduce the event management cost. At the run time, the proposed hybrid scheduler will dispatch and inject the events on the most appropriate computing target based on the event descriptor and the current load obtained through a feedback mechanisms such that the hardware usage rate is maximized. Results have shown a significant gain of 100 times compared to traditional CPU based approaches. In order to increase the scalability of the system, we propose a new simulation model, denoted as general purpose coordinator-master-worker, to address jointly the challenge of distributed and parallel simulation at different levels. The performance of a distributed simulation that relies on the GP-CMW architecture tends toward the maximal theoretical efficiency in a homogeneous deployment. The scalability of such a simulation model is validated on the largest European GPU-based supercomputer
147

Realistic quantum information processing : from devices to computational models / Traitement réaliste de l'information quantique : des dispositifs aux modèles de calcul

Douce, Tom 09 September 2016 (has links)
La théorie du calcul quantique se situe à la frontière de la physique quantique et de l’informatique. Par conséquent, les deux domaines contribuent à la rendre d’autant plus riche en apportant leurs propres méthodes et outils mathématiques. La présente thèse tente de mettre en évidence cette particularité en traitant des problématiques qui vont la physique expérimentale aux modèles de calcul. Le but est d’offrir de nouvelles possibilités pour démontrer un avantage quantique. Après une brève introduction aux notions de base de la mécanique quantique, certains aspects liés à l’informatique sont discutés. Le formalisme des classes de complexité quantiques ainsi que le concept du calcul quantique en variables continues sont décrits. Ensuite, le modèle connu comme instantaneous quantum computing est traduit en variables continues, le rendant attrayant d’un point de vue expérimental. Le chapitre conclut sur une discussion concernant un protocole hybride impliquant l’algorithme de Grover dans le cadre des communications quantiques. La dernière partie de la thèse s’intéresse à des problématiques issues de la physique expérimentale. Le lien entre l’effet Hong-Ou-Mandel et la fonction de Wigner d’un état à deux photons est mise en évidence, et un protocole expérimental est décrit en conséquence. La suite traite du domaine des circuits supraconducteurs et envisage de possibles expériences. Il est montré comment utiliser un qubit de flux pour manipuler un centre coloré du diamant. Il est également décrit comment sonder le modèle de Rabi dans le régime de couplage ultra fort en utilisant un qubit supplémentaire faiblement couplé. / The theory of quantum computing lies at the very boundary between quantum physics and computer science. As such, both fields bring their own methods and mathematical tools to make quantum computing even richer. The present thesis attempts to reflect this specificity by addressing questions ranging from experimental physics to computational models. The goal is to provide novel ways of demonstrating quantum advantage. After a short introduction to basic notions of quantum mechanics, some computer science aspects are discussed. We describe the powerful formalism of quantum complexity classes and the concept of quantum computations based on continuous variables. We then translate the model of instantaneous quantum computing to continuous variables, which is experimentally appealing. The chapter concludes with a discussion on a hybrid protocol involving Grover’s algorithm in a quantum communication framework. The last part of the thesis is devoted to experimentally driven issues. A fundamental connection between the Hong-Ou-Mandel experiment and the Wigner function of two-photon states is derived and a verification protocol is designed accordingly. We then move to the field of superconducting circuits to discuss proposals for future experiments. We show how to use a flux qubit to manipulate a NV color center. We also describe how to use to probe the Rabi model in the ultra strong coupling regime using an additional weakly coupled qubit.
148

Semimartingales et intégration stochastique

Renaud, Jean-François January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
149

Tensor-based regression models and applications

Hou, Ming 24 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2017-2018 / Avec l’avancement des technologies modernes, les tenseurs d’ordre élevé sont assez répandus et abondent dans un large éventail d’applications telles que la neuroscience informatique, la vision par ordinateur, le traitement du signal et ainsi de suite. La principale raison pour laquelle les méthodes de régression classiques ne parviennent pas à traiter de façon appropriée des tenseurs d’ordre élevé est due au fait que ces données contiennent des informations structurelles multi-voies qui ne peuvent pas être capturées directement par les modèles conventionnels de régression vectorielle ou matricielle. En outre, la très grande dimensionnalité de l’entrée tensorielle produit une énorme quantité de paramètres, ce qui rompt les garanties théoriques des approches de régression classique. De plus, les modèles classiques de régression se sont avérés limités en termes de difficulté d’interprétation, de sensibilité au bruit et d’absence d’unicité. Pour faire face à ces défis, nous étudions une nouvelle classe de modèles de régression, appelés modèles de régression tensor-variable, où les prédicteurs indépendants et (ou) les réponses dépendantes prennent la forme de représentations tensorielles d’ordre élevé. Nous les appliquons également dans de nombreuses applications du monde réel pour vérifier leur efficacité et leur efficacité. / With the advancement of modern technologies, high-order tensors are quite widespread and abound in a broad range of applications such as computational neuroscience, computer vision, signal processing and so on. The primary reason that classical regression methods fail to appropriately handle high-order tensors is due to the fact that those data contain multiway structural information which cannot be directly captured by the conventional vector-based or matrix-based regression models, causing substantial information loss during the regression. Furthermore, the ultrahigh dimensionality of tensorial input produces huge amount of parameters, which breaks the theoretical guarantees of classical regression approaches. Additionally, the classical regression models have also been shown to be limited in terms of difficulty of interpretation, sensitivity to noise and absence of uniqueness. To deal with these challenges, we investigate a novel class of regression models, called tensorvariate regression models, where the independent predictors and (or) dependent responses take the form of high-order tensorial representations. We also apply them in numerous real-world applications to verify their efficiency and effectiveness. Concretely, we first introduce hierarchical Tucker tensor regression, a generalized linear tensor regression model that is able to handle potentially much higher order tensor input. Then, we work on online local Gaussian process for tensor-variate regression, an efficient nonlinear GPbased approach that can process large data sets at constant time in a sequential way. Next, we present a computationally efficient online tensor regression algorithm with general tensorial input and output, called incremental higher-order partial least squares, for the setting of infinite time-dependent tensor streams. Thereafter, we propose a super-fast sequential tensor regression framework for general tensor sequences, namely recursive higher-order partial least squares, which addresses issues of limited storage space and fast processing time allowed by dynamic environments. Finally, we introduce kernel-based multiblock tensor partial least squares, a new generalized nonlinear framework that is capable of predicting a set of tensor blocks by merging a set of tensor blocks from different sources with a boosted predictive power.
150

The notion of limit

Lalor, Juvenal 05 March 2019 (has links)
Montréal Trigonix inc. 2018

Page generated in 0.0289 seconds