• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
451

Modeling of the viscoelastic honeycomb panel equipped with piezoelectric patches in view of vibroacoustic active control design / Modélisation du comportement viscoélastique de panneaux sandwich nid d'abeille équipés de pastilles piézoélectriques pour l'aide à la conception de contrôle actif vibroacoustique

Florens, Corine 22 January 2010 (has links)
Le contrôle actif a souvent été considéré pour la maîtrise du bruit basse fréquence rayonné par les panneaux d’habillage dans les cabines des avions et hélicoptères. Ces panneaux sont classiquement réalisés en matériaux sandwich nid d’abeille (nida), du fait de leur très bon rapport résistance/masse. La mise en œuvre des techniques de contrôle actif sur des panneaux de type nida n’a pas toujours donné des résultats à la hauteur des attentes. Le travail présenté dans cette thèse introduit un modèle coque/volume/coque (SVS) de panneau nida équipé de pastilles piézoélectriques, valide ce modèle expérimentalement et propose une analyse des limitations de performance du contrôle actif. Pour la modélisation des panneaux nida, la principale difficulté est d’estimer les propriétés effectives d’un matériau homogène équivalent au cœur. On introduit une procédure d’homogénéisation numérique à partir d’un modèle 3D très détaillé de la structure du nida. Cette procédure est basée sur la corrélation des modes périodiques du modèle 3D et du modèle SVS. L’utilisation de modes périodiques permet l’analyse détaillée de l’influence des constituants dans le comportement vibratoire du nida, en particulier de la couche de colle et des peaux du sandwich. Des essais vibratoires mettent en évidence les effets viscoélastiques présents pour les nida à base de papier Nomex. Ces effets sont pris en compte dans le modèle SVS en utilisant des paramètres élastiques dépendant de la fréquence. On intègre ensuite des actionneurs et capteurs piézoélectriques au modèle de panneau nida validé. Différentes stratégies pour l’intégration du modèle proposé dans un processus de conception sont discutées. On montre enfin que la réponse statique à une tension électrique correspond à une cloque, flexion très localisée des peaux plutôt que flexion globale du panneau. Il en résulte une mauvaise performance des actionneurs. Cet effet local est retrouvé sur un modèle de panneau d’habillage réaliste étudié à l’ONERA. / Active control has often been considered for low frequency control of noise radiated by trim panels inside aircraft or helicopter cabins. Trim panels are usually made of honeycomb core sandwich because of their high strength to mass ratio. Active control techniques applied to honeycomb panel have not always given results as good as expected and this thesis aims to understand these limitations based on validated mechanical models of the active panels. For the modeling of honeycomb panels, the main difficulty is to estimate equivalent properties for the core. A numerical homogenization procedure is introduced to estimate effective parameters of a shell/volume/shell model based on the correlation with periodic modes of a detailed 3D model. The use of periodic modes allows a detailed analysis of the influence of constituent properties, especially glue and skin. Tests show that the considered Nomex based honeycomb has significantly viscoelastic behavior. In the model, the viscoelastic behavior of the core is taken into account by a frequency dependence of material parameters. Piezoelectric actuators and sensors are included in the validated honeycomb model. Strategies for integration in a numerical design process are discussed. Finally, the static response to an applied voltage is shown to correspond to a blister shape with local bending of the skin rather than global bending of the panel. This behavior results in poor actuator performance, which is also found in a realistic panel configuration studied at ONERA.
452

Design de composites verts pour la dépollution des terres agricoles : expérience et théorie / Design of green composite for the decontamination of agricultural land : experimental and theoretical

El Adraa, Khaled 11 December 2014 (has links)
Des matériaux verts biodégradables à base de Montmorillonite et de cystéine ont été préparés dans le but de co-adsorber des cations de métaux lourds et des polluants émergeants en combinant l’expérience et la théorie (calculs DFT). Les analyses thermiques différentielles ont permis d’estimer le pourcentage d’eau et de matière organique, informations indispensables permettant de lancer les calculs théoriques. La première étape a consisté en l’adsorption des cations de métaux lourds tels que Pb2+, Cu2+, Co2+, Zn2+ et Hg2+ par le composite montmorillonite-cystéine et leurs caractérisations physico-chimiques. La deuxième étape a consisté à co-adsorber le sulfadiazine dans le composite montmorillonite-cystéine-cation de métal lourd. La spectroscopie de résonance magnétique du 13C nous a permis d’identifier les composites où une réaction de complexation s’est produite : En effet des décalages importants dans le déplacement chimique sont observés dans ce dernier cas. Parallèlement à cette partie expérimentale, la modélisation moléculaire nous a permis de calculer les énergies des différents complexes formés. Nous avons ainsi pu estimer le complexe le plus stable à partir des énergies obtenues. Un bon accord entre les résultats expérimentaux et théoriques a été obtenu. Des études de relargage à force ionique contrôlée ont été effectuées. Les résultats ont montré une bonne rétention des divers polluants en présence de cystéine. / Layered silicates like smectites are important soil components. Many works have been devoted to functionalize these materials in order to increase their chelating properties which may help retain heavy metals. It is well known that Cd2+, Hg2+, Pb2+, Co2+ and Zn2+ forms stable complexes with sulfur-containing organic ligands like cysteine. The first step of this work was the preparation of cysteine-montmorillonite composite through procedures that are well mastered. The second step was the study of the capacity of these composite materials to adsorb heavy metal cations. The chemical data demonstrates that the amount of cysteine detected on montmorillonite increases rapidly during the first few hours to attain a plateau after 24h. A comparison between the chelating properties of the resulting hybrid inorganic-organic materials and the pure montmorillonite was carried out for the following heavy metal cations Cd2+, Hg2+, Pb2+, Co2+ and Zn2+. It appears that the adsorption capacity of both materials is comparable. However, in release experiments, the heavy metal cations are more strongly retained by the hybrid material. Thermogravimetric analysis shows a special behavior with mercury and copper cations. Interactions between the hybrid clay mineral and the inorganic hosts were studied by spectroscopic methods such as solid-state NMR and FTIR. The experimental data were interpreted and supported by the use of theoretical periodic DFT calculations. Experiments with co-adsorption of heavy metal cations and emergent pollutants were also conducted. Interactions between the pollutants and the composite were highlighted by spectroscopic techniques.
453

On the Power and Universality of Biologically-inspired Models of Computation / Étude de la puissance d'expression et de l'universalité des modèles de calcul inspirés par la biologie

Ivanov, Sergiu 23 June 2015 (has links)
Cette thèse adresse les problèmes d'universalité et de complétude computationelle pour plusieurs modèles de calcul inspirés par la biologie. Il s'agit principalement des systèmes d'insertion/effacement, réseaux de processeurs évolutionnaires, ainsi que des systèmes de réécriture de multi-ensembles. Les résultats décrits se classent dans deux catégories majeures : l'étude de la puissance de calcul des opérations d'insertion et d'effacement avec ou sans mécanismes de contrôle, et la construction des systèmes de réécriture de multi-ensembles universels de petite taille. Les opérations d'insertion et d'effacement consistent à rajouter ou supprimer une sous-chaîne dans une chaîne de caractères dans un contexte donné. La motivation pour l'étude de ces opérations vient de la biologie, ainsi que de la linguistique et de la théorie des langages formels. Dans la première partie de ce manuscrit nous examinons des systèmes d'insertion/effacement correspondant à l'édition de l'ARN, un processus qui insère ou supprime des fragments de ces molécules. Une particularité importante de l'édition de l'ARN est que le endroit auquel se font les modifications est déterminé par des séquences de nucléotides se trouvant toujours du même côté du site de modification. En termes d'insertion et d'effacement, ce phénomène se modéliserait par des règles possédant le contexte uniquement d'un seul côté. Nous montrons qu'avec un contexte gauche de deux caractères il est possible d'engendrer tous les langages rationnels. D'autre part, nous prouvons que des contextes plus longs n'augmentent pas la puissance de calcul du modèle. Nous examinons aussi les systèmes d’insertion/effacement utilisant des mécanismes de contrôle d’application des règles et nous montrons l'augmentation de la puissance d'expression. Les opérations d'insertion et d'effacement apparaissent naturellement dans le domaine de la sécurité informatique. Comme exemple on peut donner le modèle des grammaires gauchistes (leftist grammar), qui ont été introduites pour l'étude des systèmes critiques. Dans cette thèse nous proposons un nouvel instrument graphique d'analyse du comportement dynamique de ces grammaires. La deuxième partie du manuscrit s'intéresse au problème d'universalité qui consiste à trouver un élément concret capable de simuler le travail de n'importe quel autre dispositif de calcul. Nous commençons par le modèle de réseaux de processeurs évolutionnaires, qui abstrait le traitement de l'information génétique. Nous construisons des réseaux universels ayant un petit nombre de règles. Nous nous concentrons ensuite sur les systèmes de réécriture des multi-ensembles, un modèle qui peut être vu comme une abstraction des réactions biochimiques. Pour des raisons historiques, nous formulons nos résultats en termes de réseaux de Petri. Nous construisons des réseaux de Petri universels et décrivons des techniques de réduction du nombre de places, de transitions et d'arcs inhibiteurs, ainsi que du degré maximal des transitions. Une bonne partie de ces techniques repose sur une généralisation des machines à registres introduite dans cette thèse et qui permet d'effectuer plusieurs tests et opérations en un seul changement d'état / The present thesis considers the problems of computational completeness and universality for several biologically-inspired models of computation: insertion-deletion systems, networks of evolutionary processors, and multiset rewriting systems. The presented results fall into two major categories: study of expressive power of the operations of insertion and deletion with and without control, and construction of universal multiset rewriting systems of low descriptional complexity. Insertion and deletion operations consist in adding or removing a subword from a given string if this subword is surrounded by some given contexts. The motivation for studying these operations comes from biology, as well as from linguistics and the theory of formal languages. In the first part of the present work we focus on insertion-deletion systems closely related to RNA editing, which essentially consists in inserting or deleting fragments of RNA molecules. An important feature of RNA editing is the fact that the locus the operations are carried at is determined by certain sequences of nucleotides, which are always situated to the same side of the editing site. In terms of formal insertion and deletion, this phenomenon is modelled by rules which can only check their context on one side and not on the other. We show that allowing one-symbol insertion and deletion rules to check a two-symbol left context enables them to generate all regular languages. Moreover, we prove that allowing longer insertion and deletion contexts does not increase the computational power. We further consider insertion-deletion systems with additional control over rule applications and show that the computational completeness can be achieved by systems with very small rules. The motivation for studying insertion-deletion systems also comes from the domain of computer security, for the purposes of which a special kind of insertion-deletion systems called leftist grammars was introduced. In this work we propose a novel graphical instrument for visual analysis of the dynamics of such systems. The second part of the present thesis is concerned with the universality problem, which consists in finding a fixed element able to simulate the work any other computing device. We start by considering networks of evolutionary processors (NEPs), a computational model inspired by the way genetic information is processed in the living cell, and construct universal NEPs with very few rules. We then focus on multiset rewriting systems, which model the chemical processes running in the biological cell. For historical reasons, we formulate our results in terms of Petri nets. We construct a series of universal Petri nets and give several techniques for reducing the numbers of places, transitions, inhibitor arcs, and the maximal transition degree. Some of these techniques rely on a generalisation of conventional register machines, proposed in this thesis, which allows multiple register checks and operations to be performed in a single state transition
454

Solving the Boolean satisfiability problem using the parallel paradigm / Résolution du problème SAT au travers de la programmation parallèle

Hoessen, Benoît 10 December 2014 (has links)
Cette thèse présente différentes techniques permettant de résoudre le problème de satisfaction de formule booléenes utilisant le parallélisme et du calcul distribué. Dans le but de fournir une explication la plus complète possible, une présentation détaillée de l'algorithme CDCL est effectuée, suivi d'un état de l'art. De ce point de départ, deux pistes sont explorées. La première est une amélioration d'un algorithme de type portfolio, permettant d'échanger plus d'informations sans perte d'efficacité. La seconde est une bibliothèque de fonctions avec son interface de programmation permettant de créer facilement des solveurs SAT distribués. / This thesis presents different technique to solve the Boolean satisfiability problem using parallel and distributed architectures. In order to provide a complete explanation, a careful presentation of the CDCL algorithm is made, followed by the state of the art in this domain. Once presented, two propositions are made. The first one is an improvement on a portfolio algorithm, allowing to exchange more data without loosing efficiency. The second is a complete library with its API allowing to easily create distributed SAT solver.
455

Modélisation des problèmes de grandes déformations multi-domaines par une approche Eulérienne monolithique massivement parallèle / Modelling multi-domain large deformation problems using an Eulerian monolithic approach in a massively parallel environment

El Haddad, Fadi 29 May 2015 (has links)
La modélisation des problèmes multi-domaine est abordée dans un cadre purement Eulérien. Un maillage unique, ne représentant plus la matière, est utilisé. Les différentes frontières et leur évolution sont décrites via des outils numériques tels que la méthode Level Set. Les caractéristiques locales de chaque sous domaines sont déterminées par des lois de mélange.Ce travail est une des premières tentations appliquant une approche Eulérienne pour modéliser de problèmes de grandes déformations. Dans un premier temps, la capacité de l'approche est testée afin de déterminer les développements nécessaires.Le frottement entre les différents objets est géré par un lubrifiant ajouté dans une couche limite. Combinée avec une technique d'identification, une nouvelle loi de mélange quadratique est introduite pour décrire la viscosité du lubrifiant. Des comparaisons ont été effectuées avec Forge® et les résultats sont trouvés satisfaisants. Pour traiter le contact entre les différents objets, un solveur directionnel a été développé. Malgré que les résultats soient intéressants, il reste le sujet de nouvelles améliorations. La scalabilité de l'approche dans un environnement massivement parallèle est testée aussi. Plusieurs recommandations ont été proposées pour s'assurer d'une performance optimale. La technique du maillage unique permet d'obtenir une très bonne scalabilité. L'efficacité du parallélisme ne dépend que de la partition d'un seul maillage (contrairement aux méthodes Lagrangiennes). La méthode proposée présente des capacités indéniables mais reste loin d'être complète. Des pistes d'amélioration sont proposées en conséquence. / Modeling of multi-domain problems is addressed in a Purely Eulerian framework. A single mesh is used all over the domain. The evolution of the different interacting bodies is described using numerical tools such as the Level Set method. The characteristics of the subdomains, considered as heterogeneities in the mesh, are determined using mixture laws.This work is one of the first attempts applying fully Eulerian Approach to Model large deformation problems. Therefore, the capacity of this approach is tested to determine necessary developments. The friction between the different objects is managed by adding a boundary layer implying the presence of a lubricant. Combined with an identification technique, a new quadratic mixture Law is introduced to determine the lubricant viscosity. Comparisons have been performed with Forge® and results were found satisfactory. To treat the contact problem between the different objects, a directional solver was developed. Despite the interesting results, it remains the topic of further improvements. The scalability of the approach in a massively parallel environment is tested as well. Several recommendations were proposed to ensure an optimal performance. The technique of a single mesh guarantees a very good scalability since the efficiency of parallelism depends of the partition of a single mesh (unlike the Lagrangian Methods). The proposed method presents undeniable capacities but remains far from being complete. Ideas for future Improvements are proposed accordingly.
456

Identification et analyse des mécanismes de génération du bruit de jet à partir de résultats expérimentaux et de simulations numériques / Identification and analysis of the jet noise generation mecanisms from experimental results and numerical simulations

Lorteau, Mathieu 31 March 2015 (has links)
Cette étude s’inscrit dans le domaine de la réduction du bruit des avions et plus précisément du bruit de jet représentant la première source de bruit au décollage. Les travaux de thèse consistent en l’identification et l’analyse des mécanismes de génération du bruit de jet à partir de résultats expérimentaux et de simulations numériques. La démarche a porté dans un premier temps sur l’analyse de la structure du champ de pression proche d’un jet chaud subsonique turbulent à partir de données expérimentales acquises au moyen d’une antenne azimutale de microphones. Dans un second temps, une simulation numérique par l’approche LES, avec déclenchement de la turbulence, reproduisant la configuration expérimentale a été mise en place et validée dans le but de poursuivre l’analyse des données expérimentales. L’analyse des données issues de la simulation a permis de relier, au moyen de calculs de corrélation, les comportements identifiés dans le champ proche à des ondes de pression se développant dans la couche de cisaillement et se propageant vers la fin du cône potentiel. Cette analyse a également mis en avant le caractère intermittent du rayonnement acoustique dans la direction aval, direction pour laquelle l’énergie acoustique est maximale, ce caractère intermittent provenant des structures cohérentes se développant dans la couche de cisaillement. L’analyse réalisée à partir des données de la simulation serait utilement complétée par des calculs de cohérences entre le champ aérodynamique et le champ acoustique à partir de signaux expérimentaux provenant de mesures synchronisées. / This study falls within the field of aircraft noise reduction and more precisely jet noise as it represents the main noise source during take-off. The present work consists in the identification and the analysis of the jet noise source mecanisms using experimental results and numerical simulation. First, an analysis of the near field pressure of a hot subsonic turbulent jet has been done from experimental data acquired with an azimuthal array of microphones. Secondly, in order to continue the analysis, a numerical simulation using the LES approach with turbulence triggering reproducing the experimental configuration has been set up and validated. The data obtained from the simulation enable to link the highlighted behaviours in the near field to pressure waves developping in the shear layer and propagating toward the potential core end, through correlation calculations. The intermittency of the downstream acoustic radiation, i.e. the main direction of radiation, has been evidenced and related to the coherent structures developping in the shear layer. To deepen the analysis, it would be interesting for instance to calculate spectral coherence between the aerodynamic and the acoustic fields from synchronised measurements.
457

Stratégie multiparamétrique pour la simulation d’assemblages de structures stratifiées / Multiparametric strategy for the simulation of assemblies with composite components

Roulet, Vincent 01 December 2011 (has links)
Les travaux de thèse s'inscrivent dans le cadre du projet de recherche européen MAAXIMUS (More Affordable Aircraft through eXtended, Integrated and Mature nUmerical Sizing) et portent sur la simulation numérique de problèmes d'assemblages de composants en matériaux composites stratifiés. Ces assemblages sont sources de deux types de non-linéarités. D'une part, l'interface entre les pièce conduit au traitement de non-linéarités fortes (contact, frottement). D'autre part, dans les composants de l'assemblage, le comportement du matériau stratifié est complexe, du fait des nombreux phénomènes de dégradations interagissant entre eux. Ces deux aspects ont une influence forte sur la réponse globale de l'assemblage, ce qui implique la résolution de systèmes de très grandes tailles, nécessitant généralement l'utilisation de moyens de calcul parallèles.Le couplage entre ces deux problématiques nécessite donc l'utilisation d'algorithmes de calcul parallèle dédiés et robustes, à même de traiter de nombreuses non-linéarités très fortes. Pour cela, la méthode LATIN (pour LArge Time INcrement) présente de nombreux avantages, déjà mis en évidence dans le cas de calcul d'assemblages de pièces élastiques lors de travaux précédents. Le but de ces travaux est donc d'élargir le cadre de la méthode au cas des pièces au comportement endommageable et anélastique.Un dernier aspect, qui sera abordé au sein de ces travaux, traite des fortes variabilités des coefficients intervenant dans les lois non-linéaires. Par conséquent, il est nécessaire de pouvoir traiter un très grand nombre de problèmes affectés de valeurs de coefficients différents. Pour cela, la stratégie multiparamétrique, intimement liée à la méthode LATIN, doit être étendue au cas de comportements matériau non-linéaires. Elle sera alors appliquée au travers de plusieurs paramètres variables : coefficients de frottement, précharges des éléments de fixation, seuil d'endommagement des matériaux... / The presented work, within the framework of the European research project MAAXIMUS (More Affordable Aircraft through eXtended, Integrated and Mature nUmerical Sizing), is dedicated to the numerical simulation of assemblies with components made of laminated composites. These assemblies involve two types of high non-linearities. First ones are linked to the interfaces between parts (unilateral contact and friction). Second ones are linked to the constitutive material behaviour, from its initial properties to the complex evolution of degradations. These two non-linearities have a strong influence on the response of the assembly, which involves solving systems with a high number of degrees of freedom and generally requires the use of parallel computing resources.The coupling between the two sources of non-linearities requires dedicated and robust algorithms, able to run on parallel architectures and to deal with many very strong non-linearities. The efficiency of the LATIN method (LArge Time INcrement) has already been highlighted in the case of assemblies with elastic components. A first aim of this work is thus to extend the method to the case of damageable and anelastic components' behaviour.A second aim is to deal with the variability of the coefficients involved in the non-linear laws. Each set of parameters (friction coefficients, preload of fasteners, damage threshold of material laws...) requiring a given calculation, the multiparametric strategy of the LATIN method must be extended to the case of non-linear materials in order to efficiently reduce the computation time.
458

Intérêt d'une approche de type "méta-analyse prospective d'essais de taille fixe" dans l'évaluation thérapeutique / Interest of a "fixed sample size prospective meta-experiment" approach in therapeutic evaluation

Tavernier, Elsa 31 October 2016 (has links)
L'effectif est une question majeure de la planification d'un essai randomisé et n'est pas trivial à définir. Déterminer la taille de l'échantillon d'un point de vue statistique correspond à maitriser le taux d'erreur de type II sous l'hypothèse d'une certaine différence entre les bras de traitement. Une étude est conventionnellement considérée comme correctement planifiée quand elle assure un taux d'erreur de type II à 20%, voire 10%. C'est pourquoi les comités éthiques exigent que l'hypothèse faite sur le critère de jugement principal, et la valeur prise pour le paramètre de nuisance, soient explicitées dans le protocole. En pratique ces exigences peuvent mener à des stratégies problématiques, comme la substitution du critère de jugement principal, ou bien tout simplement à l'abandon de l'essai car un compromis entre une hypothèse réaliste et le financement ou la durée de l'étude n'est pas possible. De plus, la précision des calculs est relativement illusoire, car ils nécessitent de prendre une valeur donnée pour le paramètre de nuisance, qui se révèle souvent éloignée de ce qui est observé dans l'essai. Le premier travail de cette thèse consistait à considérer un calcul d'effectif standard et à étudier dans quelle mesure les erreurs faites sur le paramètre de nuisance impactait la puissance finale de l'essai. Pour cela une étude de simulation a été conduite. Nos résultats de simulations ont montré que la puissance finale des essais était plus fortement impactée pour un critère de jugement continu que pour un critère binaire. Ces résultats montrent que même avec des calculs d'effectif correctement faits, un nombre substantiel d'essais sont sous-puissants ou surpuissants à cause de l'incertitude sur le paramètre de nuisance. Le second travail de thèse consistait à définir et évaluer une approche alternative au classique essai conçu pour avoir une puissance de 80%. Cette approche alternative est une méta-analyse prospective constituée de base de trois essais indépendants de taille 100 chacun. Les résultats des trois essais sont ensuite combinés dans une méta-analyse à effet aléatoire. Ce modèle permet d'admettre une variation entre les trois effets traitement estimés. Un des avantages de cette méthode est en effet d'apporter une information supplémentaire par rapport à un essai unique, celle de l'éventuelle hétérogénéité des résultats obtenus. Cette approche alternative est ce que nous appellerons une méta-expérience. Une étude de simulation a été menée pour évaluer son efficacité statistique, en comparaison avec l'approche classiquement utilisée. Les résultats montraient qu'une méta-expérience assurait en moyenne la même précision, la même puissance et le même taux d'erreur de type I que l'approche classique. / Choosing the sample size is a important stage of a clinical trial. On a statistical level, determining the sample size means to control the type II error rate under the hypothesis of a given difference between thez two treatment arms. A trial is considered to be correctly planned if its type II error rate is equal to 20%, or even 10%. Consequently, ethical committees ask the hypothesis on the main outcome and the assumption on the nuisance parameter to be clearly stated in the protocol. These requirements sometimes lead to different issues, such as the use of surrogate outcomes or even the abandonment of the trial. In the first work of this thesis, we examine the extent to which inaccurate assumptions for nuisance parameters used to calculate sample size can affect the power of a randomized controlled trial. We performed a simulation study. In total, 23%, 0% and 18% of RCTs with continuous, binary and time-to-event outcomes, respectively, were underpowered (i.e., the real power was < 60\%, as compared with the 80% nominal power); 41%, 16% and 6%, respectively, were overpowered (i.e., with real power > 90%). Even with proper calculation of sample size, a substantial number of trials are underpowered or overpowered because of imprecise knowledge of nuisance parameters. In the second work of this thesis, we defined and evaluated an alternative design named meta-experiment which circumvents the need for sample size calculation. In a simulation study, we compared a meta-experiment approach to the classical approach to assess treatment efficacy. The meta-experiment approach involves use of meta-analyzed results from 3 randomized trials of fixed sample size, 100 subjects. A prospective meta-analysis of data from trials of fixed sample size provided the same precision, power and type I error rate, on average, as the classical approach. The meta-experiment approach may provide an alternative design which does not require a sample size calculation and addresses the essential need for study replication; results may have greater external validity
459

Espaces grossiers pour les méthodes de décomposition de domaine avec conditions d'interface optimisées / Coarse spaces for domain decomposition method with optimized transmission conditions

Haferssas, Ryadh Mohamed 23 November 2016 (has links)
L'objectif de cette thèse est la conception, l'analyse et l'implémentation d'une méthode de décomposition de domaine efficiente pour des problèmes de la mécanique des solides et des fluides. Pour cela les méthodes de Schwarz optimisée (OSM) sont considérées et révisées. Les méthodes de décomposition de domaine de Schwarz optimisées ont été introduites par P.L. Lions, elles apportent une amélioration aux méthodes de Schwarz classiques en substituant les conditions d'interface de Dirichlet par des conditions de type Robin et cela pour les méthodes avec ou sans recouvrement. Les conditions de Robin offrent un très bon levier qui nous permet d'aller vers l'optimalité des méthodes de Schwarz ainsi que la conception d'une méthode de décomposition de domaine robuste pour des problèmes de mécanique complexes comportant une nature presque incompressible. Dans cette thèse un nouveau cadre mathématique est introduit qui consiste à munir les méthodes de Schwarz optimisées (e.g. L'algorithme de Lions ) d'une théorie semblable à celle déjà existante pour des méthodes de Schwarz additives, on définit un espace grossier pour lequel le taux de convergence de la méthode à deux niveaux peut être prescrit, indépendamment des éventuelles hétérogénéités du problème traité. Une formulation sous forme de preconditioneur de la méthode à deux niveaux est proposée qui permettra la simulation parallèle d'un large spectre de problèmes mécanique, tel que le problème d'élasticité presque incompressible, le problème de Stokes incompressible ainsi que le problème instationnaire de Navier-Stokes. Des résultats numériques issues de simulations parallèles à grande échelle sur plusieurs milliers de processeurs sont présentés afin de montrer la robustesse de l'approche proposée. / The objective of this thesis is to design an efficient domain decomposition method to solve solid and fluid mechanical problems, for this, Optimized Schwarz methods (OSM) are considered and revisited. The optimized Schwarz methods were introduced by P.L. Lions. They consist in improving the classical Schwarz method by replacing the Dirichlet interface conditions by a Robin interface conditions and can be applied to both overlapping and non overlapping subdomains. Robin conditions provide us an another way to optimize these methods for better convergence and more robustness when dealing with mechanical problem with almost incompressibility nature. In this thesis, a new theoretical framework is introduced which consists in providing an Additive Schwarz method type theory for optimized Schwarz methods, e.g. Lions' algorithm. We define an adaptive coarse space for which the convergence rate is guaranteed regardless of the regularity of the coefficients of the problem. Then we give a formulation of a two-level preconditioner for the proposed method. A broad spectrum of applications will be covered, such as incompressible linear elasticity, incompressible Stokes problems and unstationary Navier-Stokes problem. Numerical results on a large-scale parallel experiments with thousands of processes are provided. They clearly show the effectiveness and the robustness of the proposed approach.
460

Contre-mesures aux attaques par canaux cachés et calcul multi-parti sécurisé / Countermeasures to side-channel attacks and secure multi-party computation

Thillard, Adrian 12 December 2016 (has links)
Les cryptosystèmes sont présents dans de nombreux appareils utilisés dans la vie courante, tels que les cartes à puces, ordiphones, ou passeports. La sécurité de ces appareils est menacée par les attaques par canaux auxiliaires, où un attaquant observe leur comportement physique pour obtenir de l’information sur les secrets manipulés. L’évaluation de la résilience de ces produits contre de telles attaques est obligatoire afin de s’assurer la robustesse de la cryptographie embarquée. Dans cette thèse, nous exhibons une méthodologie pour évaluer efficacement le taux de succès d’attaques par canaux auxiliaires, sans avoirbesoin de les réaliser en pratique. En particulier, nous étendons les résultats obtenus par Rivain en 2009, et nous exhibons des formules permettant de calculer précisément le taux de succès d’attaques d’ordre supérieur. Cette approche permet une estimation rapide de la probabilité de succès de telles attaques. Puis, nous étudions pour la première fois depuis le papier séminal de Ishai, Sahai et Wagner en 2003 le problème de la quantité d’aléa nécessaire dans la réalisation sécurisée d’une multiplication de deux bits. Nous fournissons des constructions explicites pour des ordres pratiques de masquage, et prouvons leur sécurité et optimalité. Finalement, nous proposons un protocole permettant le calcul sécurisé d’un veto parmi un nombre de joueurs arbitrairement grand, tout en maintenant un nombre constant de bits aléatoires. Notre construction permet également la multiplication sécurisée de n’importe quel nombre d’éléments d’un corps fini. / Cryptosystems are present in a lot of everyday life devices, such as smart cards, smartphones, set-topboxes or passports. The security of these devices is threatened by side-channel attacks, where an attacker observes their physical behavior to learn information about the manipulated secrets. The evaluation of the resilience of products against such attacks is mandatory to ensure the robustness of the embedded cryptography. In this thesis, we exhibit a methodology to efficiently evaluate the success rate of side-channel attacks, without the need to actually perform them. In particular, we build upon a paper written by Rivainin 2009, and exhibit explicit formulaes allowing to accurately compute the success rate of high-order side-channel attacks. We compare this theoretical approach against practical experiments. This approach allows for a quick assessment of the probability of success of any attack based on an additive distinguisher. We then tackle the issue of countermeasures against side- channel attacks. To the best of our knowledge, we study for the first time since the seminal paper of Ishai, Sahai and Wagner in 2003 the issue of the amount of randomness in those countermeasures. We improve the state of the art constructions and show several constructions and bounds on the number of random bits needed to securely perform the multiplication of two bits. We provide specific constructions for practical orders of masking, and prove their security and optimality. Finally, we propose a protocolallowing for the private computation of a secure veto among an arbitrary large number of players, while using a constant number of random bits. Our construction also allows for the secure multiplication of any number of elements of a finite field.

Page generated in 0.0239 seconds