• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 274
  • 105
  • 33
  • 11
  • 7
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 433
  • 152
  • 71
  • 57
  • 49
  • 37
  • 34
  • 34
  • 33
  • 33
  • 30
  • 29
  • 28
  • 28
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Estimation non paramétrique du nombre d'espèces : Application à l'étude de la faune ichtyologique du bassin du fleuve Ouëmé / Nonparametric estimation of the number of species : application to the ichthyofauna of the Ouémé basin river

Koladjo, Babagnidé François 20 September 2013 (has links)
Ce manuscrit est structuré en deux parties. La première partie composée des chapitres 2à 4 aborde le problème d'estimation du nombre de classes dans une population avec une application en écologie. La deuxième partie, correspondant au chapitre 5,concerne la mise en oeuvre de méthodes statistiques pour analyser des données de pêche. Dans la première partie, nous considérons une population hétérogène subdiviséeen plusieurs classes. À partir d'un échantillon, les effectifs d'individus observés parclasse, encore appelés abondances, sont utilisés pour estimer le nombre total declasses dans la population. Dans la littérature consacrée à l'estimation du nombrede classes, les méthodes basées sur un mélange de distributions de Poisson semblentêtre les plus performantes (voir par exemple les travaux de Chao and Bunge (2002)dans le cadre paramétrique et celui de Wang and Lindsay (2005) dans un cadrenon paramétrique). La mise en oeuvre de ces approches sur des données réellesmet en évidence que la distribution des abondances peut être approchée par unedistribution convexe. Nous proposons une approche non paramétrique pour estimerla distribution des abondances sous contrainte de convexité. Cette contrainte définitun cadre théorique d'estimation d'une densité discrète. Le problème d'estimation dunombre de classes est donc abordé en deux volets. Nous montrons d'une part l'existenceet l'unicité d'un estimateur d'une densité discrète sous la contrainte de convexité.Sous cette contrainte, nous démontrons qu'une densité discrète s'écrit comme un mélange de densités triangulaires. À partir de l'algorithme de réduction du supportproposé par Groeneboom et al. (2008), nous proposons un algorithme exact pourestimer les proportions dans le mélange. D'autre part, la procédure d'estimationd'une densité discrète convexe nous sert de cadre pour l'estimation de la distributiontronquée en zéro des observations d'abondance. L'estimation de la loi tronquée obtenue est ensuite prolongée en zéro pour estimer la probabilité qu'une classe ne soit pasobservée. Ce prolongement en zéro est fait de façon à annuler la proportion dela première composante dans le mélange de densités triangulaires. Nousaboutissons à une estimation du nombre de classes à l'aide d'un modèle binomial ensupposant que chaque classe apparaît dans un échantillon par une épreuve deBernoulli. Nous montrons la convergence en loi de l'estimateur proposé. Sur le plan pratique, une application aux données réelles en écologie est présentée. La méthode est ensuite comparée à d'autres méthodes concurrentes à l'aide de simulations. La seconde partie présente l'analyse des données de pêche collectées dans le fleuveOuémé au Bénin. Nous proposons une démarche statistique permettant de regrouperles espèces selon leur profil temporel d'abondances, d'estimer le stock d'une espèceainsi que leur capturabilité par les engins de pêche artisanale. / This manuscript is structured in two parts. The #rst part composed of Chapters 2to 4 deals with the problem of estimating the number of classes in a population withan application in ecology. The second part, corresponding to Chapter 5, concernsthe application of statistical methods to analyze fisheries data.In the first part, we consider a heterogeneous population split into several classes.From a sample, the numbers of observed individuals per class, also called abun-dances, are used to estimate the total number of classes in the population. In theliterature devoted to the number of classes estimation, methods based on a mix-ture of Poisson distributions seem to be the most effcient (see for example the workof Chao and Bunge (2002) in the parametric framework and that of Wang and Lind-say (2005) in a non-parametric framework). Applications of these approaches to realdata show that the distribution of abundances can be approximated by a convexdistribution. We propose a non-parametric approach to estimate the distribution ofabundances under the constraint of convexity. This constraint defines a theoreticalframework for estimating a discrete density. The problem of estimating the numberof classes is then tackled in two steps.We show on the one hand the existence and uniqueness of an estimator of adiscrete density under the constraint of convexity. Under this constraint, we provethat a discrete density can be written as a mixture of triangular distributions. Usingthe support reduction algorithm proposed by Groeneboom et al. (2008), we proposean exact algorithm to estimate the proportions in the mixture.On the other hand, the estimation procedure of a discrete convex density is usedto estimate the zero-truncated distribution of the observed abundance data. Thezero-truncated distribution estimate is then extended at zero to derive an estimateof the probability that a class is not observed. This extension is made so as tocancel the first component in the mixture of triangular distributions. An estimateof the total number of classes is obtained through a binomial model assuming thateach class appears in a sample by a Bernoulli trial. We show the convergence inlaw of the proposed estimator. On practical view, an application to real ecologicaldata is presented. The method is then compared to other concurrent methods usingsimulations.The second part presents the analysis of fisheries data collected on the Ouémériver in Benin. We propose a statistical approach for grouping species accordingto their temporal abundance profile, to estimate the stock of a species and theircatchability by artisanal fishing gears.
192

Etude statistique des chemins de premier retour aux nombres de Knudsen intermédiaires : de la simulation par méthode de Monte Carlo à l'utilisation de l'approximation de diffusion / Statistical study of first return paths for intermediate Knudsen numbers : from Monte-Carlo simulations to the diffusion approximation use

Rolland, Julien Yves 10 November 2009 (has links)
En présence de diffusions multiples, les algorithmes de Monte-Carlo sont trop coûteux pour être employés dans les algorithmes de reconstruction d'images de géométries tridimensionnelles réalistes. Pour des trajectoires de premiers retours, l'approximation de diffusion est communément employée afin de représenter la statistique des chemins aux nombres de Knudsen tendant vers zéro. En formulant des problèmes équivalents sur des trajectoires de premiers passages, l'usage de l'approximation est étendue en un développement théorique. Cette nouvelle formulation assure un bon niveau de précision, sur une large plage de valeurs du nombre de Knudsen en ce qui concerne l'évaluation des moments de la distribution des longueurs des chemins de premier retour. La résolution numérique du modèle formulé est confrontée aux simulations numériques type Monte- Carlo sur des géométries mono-dimensionnelles et un cas tridimensionel ouvrant des perspectives vers une généralisation aux applications réelles. / For multiple scattering, Monte-Carlo algorithms are computationally too demanding for use in image reconstruction of 3D realistic geometries. In the study of first return path, the diffusion approximation is commonly used to represent their statistical behaviour when the Knudsen number tends to zero. With the formulation of equivalent problems for first passage path, the use of the approximation is extended in a theoretical development. The new model provides a good level of accuracy, for a wide distribution of Knudsen numbers when evaluating the moments distribution of the first return paths length. Numerical application of the model is confronted to Monte-Carlo simulations on one dimension geometries and a simple three-dimension case opening perspectives for the generalization to practical applications.
193

Effet des défauts d’usinage sur la tenue en fatigue de pièces aéronautiques. / Effect of machining defects on the fatigue strength of aircraft parts.

Abroug, Foued 23 April 2018 (has links)
Il été prouvée dans plusieurs études de la littérature que la taille d'un composant affecte sa tenue en fatigue et cette tendance est plus prononcée dans le régime de fatigue à grand nombre de cycles. Plus précisément, une baisse de la limite de fatigue est observée et est souvent expliquée par l’augmentation, avec l’augmentation du volume sollicité, de la probabilité de trouver un défaut critique ou une zone plus faible dans le matériau. Le présent mémoire fait partie d'un projet de recherche français (QUAUSI) regroupant plusieurs partenaires industriels et académiques qui vise à contrôler la qualité d'usinage des composants structuraux d'avions. Un des défis consiste à définir un critère approprié d'acceptabilité de défauts pour la conception en FGNC. Le critère doit être capable de prendre en compte une large gamme de défauts de surface et de composants de tailles et de géométries différentes. L'objectif principal étant de mieux comprendre l'impact des états de surface périodiques (caractéristique du type d'usinage utilisé) sur la limite de fatigue, Il a fallu d'abord vérifier si un effet de taille peut être observé quand un nombre croissant de défauts de surface simples sont introduits à la surface d'échantillons polis. Le matériau d’étude est l’alliage d'aluminium 7050 (Al Zn6CuMgZr). Une grande campagne d'essais de fatigue sous charge de flexion plane à R=-1 est effectuée sur des éprouvettes présentant des défauts hémisphériques, de différents tailles et nombres, et des états de surface usinés. Les résultats des essais ont permis de caractériser à la fois l'effet Kitagawa et l'effet d'échelle sur la tenue fatigue. Une approche probabiliste basée sur le concept du maillon le plus faible associé à un critère d'amorçage de fissure de fatigue approprié est utilisée pour prendre en compte la répartition des contraintes et la taille du volume fortement sollicité. Les prédictions utilisant des simulations EF montrent un bon accord avec les résultats expérimentaux et illustrent l'importance de prendre en compte l'effet d'échelle lors de la conception de composants contenant différents types de défauts de surface ou de motifs de rugosité.Mots-clés : Défaut de surface, fatigue à grand nombre de cycles, diagramme de Kitagawa-Takahashi, Le plus faible concept de lien, alliage AA7050 / The size of a component has been proved in several studies of the literature to affect the fatigue strength and this trend is known to be more pronounced in the High Cycle Fatigue regime. More exactly a drop of the fatigue limit is observed and this evolution is very often explained by the probability to find a critical defect or a weakest zone in the material as the stressed volume rises. The present manuscript is part of a French research project gathering several industrial and academic partners that aims to control the machining quality of aircraft structural components. For one part of the project the challenge is to define a proper defect acceptability criterion for HCF design purpose. It must be able to account for a large range of surface defects and of component sizes and geometries. Even though the primary objective was to better understand the impact of periodic surface micro-geometry patterns (characteristic of the type of machining used) on the fatigue limit, we thought that it was first necessary to check if a size effect can be observed when an increasing number of artificial simplified surface defects are introduced at the surface of smooth specimens. The aeronautical material under investigation is a 7050 Aluminum alloy (Al Zn6CuMgZr). A large fatigue testing campaign under fully reversed plane bending loading is undertaken on specimens with artificial surface hemispherical defects. Defect number varies from 1 to 44 per specimen whereas their size ranges from 60 µm to 800 µm. Testing results allow the characterization of both Kitagawa effect and scale effect on the fatigue response. A probabilistic approach based on the weakest link concept together with a proper fatigue crack initiation criterion is used to account for the stress distribution and the size of the highly stressed volume. Predictions using FE simulations show a good agreement with experimental results and illustrate the importance of taking the scale effect into account while designing components containing different types of surface defects or roughness patterns.Keywords : Surface defect, HCF, Kitagawa-Takahashi diagram, Weakest link concept, AA7050 alloy.
194

New formulation of optical flow for turbulence estimation

Chen, Xu 08 October 2015 (has links)
Le flot optique est un outil, prometteur et puissant, pour estimer le mouvement des objets de différentes natures, solides ou fluides. Il permet d’extraire les champs de vitesse à partir d’une séquence d’images. Dans cette étude, nous développons la méthode du flot optique pour récupérer, d’une manière précise, le champ de vitesse des mouvements turbulents incompressibles. L’estimation de turbulence consiste à minimiser une fonction d’énergie composée par un terme d’observation et un terme de régularisation. L’équation de transport d’un scalaire passif est alors employée pour représenter le terme d’observation. Cependant, dans le cas où le nombre de Reynolds est grand, et, à cause des contraintes optiques, l’image n’est pas pleinement résolue pour prendre en compte la physique de toutes les échelles de la turbulence. Pour compléter les informations manquantes liées aux physiques des petites échelles, nous adoptons une démarche similaire à celle de Large Eddy Simulation (LES), et, proposons d’utiliser le modèle mixte afin de tenir compte de l’interaction entre les grandes échelles et celles non-résolues. Quant au terme de régularisation, il se repose sur l’équation de continuité des fluides incompressibles. Les tests à l’aide des images synthétiques et expérimentales de la turbulence bi-dimensionnelle - des données des cas test de la communauté du flot optique -, ont non seulement validé notre démarche, mais montrent une amélioration significative des qualités des champs de vitesses extraites. Le cas du flot optique, en 3D, relève encore du défi dans le cas de l’estimation des champs de vitesse de la turbulence. D’une part, contrairement au 2D où il existe des cas tests bien établis, il n’existe pas, à notre connaissance, des séquences d’images 3D référentielles permettant de tester notre démarche et méthode. D’autre part, l’augmentation du coût d’estimation demande des algorithme adaptés. Ainsi, nous sommes amené à utiliser la simulation numérique directe d’écoulement turbulent en présence d’un scalaire passif, pour générer des données de scalaires afin d’évaluer la performance du flot optique. Nous prêtons également attention à l’effet du nombre de Schmidt qui caractérise la relation entre la diffusion moléculaire scalaire et la dissipation de turbulence. Les tests sont ensuite effectués avec cette base de données numériques. Les résultats montrent que la précision de l’estimation augmente avec des nombres de Schmidt plus élevés. Par ailleurs, l’influence du terme de régularisation est aussi étudié au travers deux équations qui se différencient par l’ordre spatial des dérivées partielles. Les résultats numériques montrent que l’équation avec un terme de régularisation de seconde-ordre est meilleure que celle de premier-ordre. / The method of optical flow is a powerful tool for motion estimation. It is able to extract the dense velocity field from image sequence. In this study, we employ this method to retrieve precisely the incompressible turbulent motions. For 2D turbulence estimation, it consists in minimizing an objective function constituted by an observation term and a regularization one. The observation term is based on the transport equation of a passive scalar field. For non-fully resolved scalar images, we propose to use the mixed model in large eddy simulation (LES) to determine the interaction between large-scale motions and the unresolved ones. The regularization term is based on the continuity equation of 2D incompressible flows. Evaluation of the proposed formulation is done over synthetic and experimental images. In addition, we extend optical flow to three dimensional and multiple scalar databases are generated with direct numerical simulation (DNS) in order to evaluate the performance of optical flow in the 3D context. We propose two formulations differing by the order of the regularizer. Numerical results show that the formulation with second-order regularizer outperforms its first-order counterpart. We also draw special attention to the effect of Schmidt number, which characterizes the ratio between the molecular diffusion of the scalar and the dissipation of the turbulence. Results show that the precision of the estimation increases as the Schmidt number increases. Overall, optical flow has showcased its capability of reconstructing the turbulent flow with excellent accuracy. This method has all the potential and attributes to become an effective flow measurement approach in fluid mechanics community.
195

Sédimentation de particules : effets collectifs et filaments déformables / Sedimentation of particles : collective effects and deformable filaments

Marchetti, Benjamin 26 September 2018 (has links)
Une étude expérimentale et numérique traitant de l'influence de structures tourbillonnaires sur la sédimentation de nuage de particules sphériques sous l'effet de la gravité est présentée dans une première partie de ce manuscrit. L'écoulement est créé par électro-convection, ce qui permet de générer un réseau de vortex contrôlés en vitesse et de taille constante qui imite un écoulement tourbillonnaire. Des techniques de PIV (Particle image-velocimetry) et de suivi de particules sont utilisés pour étudier la sédimentation du nuage.Le nuage est modélisé comme un ensemble de particules ponctuelles pour lesquelles les forces d'interaction hydrodynamiques entre particules sont prépondérantes. Le comportement du nuage est comparé aux prédictions obtenues avec des modèles numériques. Dans une seconde partie est présentée une étude expérimentale et numérique concernant la sédimentation à faible nombre de Reynolds de fibres flexibles dans un fluide visqueux au repos. L'état d'équilibre atteint par la fibre flexible est étudié. Nous identifions trois régimes ayant des signatures différentes sur l'état stationnaire de la fibre flexible: un régime de faibles déformations dans lequel la force de traînée est proportionnelle à celle d'une fibre sédimentant horizontalement par rapport à la gravité; un régime de grandes déformations dans lequel la force de traînée est aussi proportionnelle à la vitesse de la fibre, mais avec un coefficient de traînée qui est celui d'une fibre chutant parallèlement à la gravité; et un régime de reconfiguration élastique où le filament se déforme avec une traînée plus faible qui n'est plus proportionnelle à sa vitesse, mais à la racine carrée de celle-ci / In the first part, a jointed experimental and numerical study examining the influence of vortical structures on the settling of a cloud of solid spherical particles under the action of gravity at low Stokes numbers is presented. We use electro-convection to generate a two-dimensional array of controlled vortices which mimics a simplified vortical flow. Particle image-velocimetry and tracking are used to examine the motion of the cloud within this vortical flow. The cloud is modeled as a set of point-particles for which the hydrodynamic interaction is preponderant. The cloud behavior (trajectory, velocity, aspect ratio, break-up time …) is compared to the predictions of a two-way-coupling numerical simulation. In the second part, a jointed experimentally and numerical study on the dynamics of slender flexible filaments settling in a viscous fluid at low Reynolds number is presented. The equilibrium state of a flexible fiber settling in a viscous fluid is examined using a combination of macroscopic experiments, numerical simulations and scaling arguments. We identify three regimes having different signatures on this equilibrium configuration of the elastic filament: a weak deformation regime wherein the drag is proportional to the fiber velocity settling perpendicular to the gravity; a large deformation regime wherein the drag is proportional to the fiber velocity settling parallel to the gravity and an intermediate elastic reconfiguration regime where the filament deforms to adopt a shape with a smaller drag which is no longer linearly proportional to the velocity but to the square root of the velocity
196

Évaluation du terrain génétique des hypersensibilités / Genetic background of hypersensitivities

Bursztejn, Anne-Claire 25 November 2013 (has links)
Les mécanismes physiopathologiques des hypersensibilités (HS) médicamenteuses ne sont que partiellement connus. Un terrain génétique favorisant est connu de longue date, mais peu de facteurs de risques sont formellement identifiés. A l’aide d’une approche par gènes candidats, nous avons évalué l’association entre des polymorphismes des gènes NOD1 et 2 et l’HS aux bétalactamines ; l’association entre plusieurs polymorphismes cytokiniques et différentes HS médicamenteuses. Enfin, nous avons utilisé une approche pangénomique à la recherche de gènes candidats au cours d’une HS spécifique, le DRESS. Parmi 368 cas et autant de contrôles italiens ainsi que 387 cas et 326 contrôles espagnols, nous avons mis en évidence une association entre l’un des polymorphismes de NOD2 et un faible risque d’HS immédiate aux bétalactamines chez les patients italiens, tandis qu’un autre polymorphisme de NOD2 était associé à un risque augmenté d’HS immédiate aux bétalactamines chez les patients espagnols. Aucune association avec le polymorphisme de NOD1 n’était identifiée. Parmi 118 patients et 236 contrôles, nous avons identifiés l’association entre les polymorphismes de l’IL1 (IL1-RN-A2 et IL1-[bêta] -511) et de l’IL10 (-592A) avec le risque de DRESS. Enfin, parmi 18 DRESS, l’analyse de puces CNV pangénomique nous a permis d’identifier des variations comportant les gènes KLRC2 et CESP1.Au total, nous avons pu démontrer l’implication de gènes modulant l’inflammation, la réponse antivirale ou le métabolisme des médicaments dans différentes HS médicamenteuses. Une confirmation à l’étage fonctionnelle de ces résultats est nécessaire / The physiopathology of drug hypersensitivity (HS) are only partially known. A genetic background for such drug allergy is still demonstrated but only few genes are identified. Using a candidate gene approach, we tested the association of NOD1 and 2 genes with betalactam HS and the association of several cytokines genes with some drug HS. Using a whole genome approach, we tried to discover new candidate gene for DRESS. Among 368 italian cases and controls and 387 spanish cases and 326 controls, we identified one polymorphism of NOD2 gene associated with a protective effect for italians and another polymorphism associated with higher risk of druh HS for spanians. No association with NOD1 polymorphims was identified. Among 118 cases and 236 controls, we noticed that IL1 polymorphisms (IL1-RN-A2 and IL1-? -511) and IL10 polymorphism (-592A) were associated with DRESS.Ending, among 18 DRESS, a whole-genome array let us identify variations containing KLRC2 and CESP1 genes. These studies demonstrate the implication of several genes involved in inflammation, antivirus response or drug metabolism in different drug HS.Fonctionnal studies are needed to confirm these results
197

Influence de la microstructure sur le comportement mécanique d’une couche nitrurée de l’acier de nuance 33CrMoV12-9 en vue de l’optimisation des propriétés en fatigue / Microstructure effects on the mechanical behavior of a nitrided layer of the 33CrMoV12-9 grade steel for the purpose of fatigue properties optimization

Godet, François 20 December 2018 (has links)
Le développement de systèmes mécaniques, toujours plus performants et légers, demande l’optimisation continue des matériaux utilisés ainsi que leurs traitements. Dans le domaine des transmissions de puissance, la nitruration gazeuse apporte une hausse significative des durées de vie en fatigue des pièces fortement sollicitées. Alors que le rôle des gradients de propriétés mécaniques générés sur la résistance en fatigue est reconnu, l’influence de cette microstructure nitrurée sur les mécanismes de plasticité ou de microplasticité menant à de l’endommagement puis à l’initiation d’une fissure reste relativement méconnue. Ce travail de thèse concerne exclusivement la nitruration de l’acier de nuance 33CrMoV12-9, particulièrement utilisée dans les roulements et engrenages des industries aéronautiques et navales. Les propriétés mécaniques liées aux phénomènes menant à l’initiation de fissures en fatigue à grand nombre de cycles ont, tout particulièrement, été étudiées. Les propriétés mécaniques, comme le module d’élasticité, la dureté, la limite d’élasticité ou encore les contraintes résiduelles sont déterminées à plusieurs échelles, de celles de la microstructure à celles plus macroscopiques. Des observations in-situ ou post-mortem des couches nitrurées sollicitées jusqu’à l’endommagement ayant pour but d’estimer l’influence de la microstructure sur les hétérogénéités de déformations, les phénomènes de microplasticité et les mécanismes d’endommagement correspondants n’ont pas permis d’identifier clairement des mécanismes d’initiations de fissures. Pour ces essais, une éprouvette nitrurée à cœur représentative de la couche nitrurée a été développée. Cet outil expérimental a permis d’effectuer des essais simples de sollicitations des microstructures et ainsi déterminer des caractéristiques élastiques, d’écrouissage et de tenue en fatigue. Enfin, il a été démontré que les propriétés mesurées comme le module d’élasticité dépendent de l’échelle d’observation, des moyens et des méthodes utilisés. / Design of high-performance and lighter mechanical systems needs a perpetual work on materials used. In the power transmission field, gaseous nitriding thermochemical treatment enhances significantly the life-cycle of the parts which are higher stressed on the surface. While the contribution of the mechanical property gradients due to the treatment on the fatigue life is well-known, the microstructure effects on the (micro-)plasticity mechanisms remains undetermined. This work concerns exclusively the nitrided 33CrMoV12-9 graded steel, used for gears and bearings in the naval and aeronautical industry. It aims particularly at defining mechanical properties linked to crack initiation mechanisms during high-cycle fatigue. Properties such as Young modulus, hardness, yield stress and fatigue limits are looked at several scales, from microstructural ones to hardened case one. In-situ and post-mortem investigation on loaded and damaged nitrided layers leads to estimating the microstructural influence on local deformations, microplasticity and damage but no particular mechanisms were found. Special fully-nitrided parts were designed to perform the experiments. This tool helps to carry out simple loadings and measure the strain-hardening curve and fatigue limits. Finally, it as been attested that measured properties depend on scales, means and methodology.
198

Impact des critères de jugement sur l’optimisation de la détermination du nombre de sujet nécessaires pour qualifier un bénéfice clinique dans des essais cliniques en cancérologie / Impact of the endpoints on the optimization of the determination of the sample size in oncology clinical trials to qualify a clinical benefit

Pam, Alhousseiny 19 December 2017 (has links)
La survie globale (SG) est considérée comme le critère de jugement principal de référence et le plus pertinent/objectif dans les essais cliniques en oncologie. Cependant, avec l’augmentation du nombre de traitements efficaces disponibles pour une majorité de cancers, un nombre plus important de patients à inclure et un suivi plus long est nécessaire afin d’avoir suffisamment de puissance statistique pour pouvoir mettre en évidence une amélioration de la SG. De ce fait les critères de survie composites, tels que la survie sans progression, sont couramment utilisés dans les essais de phase III comme critère de substitution de la SG. Leur développement est fortement influencé par la nécessité de réduire la durée des essais cliniques, avec une réduction du coût et du nombre de sujets nécessaires. Cependant, ces critères sont souvent mal définis, et leurs définitions sont très variables entre les essais, rendant difficile la comparaison entre les essais. De plus, leur capacité de substitution à la SG, c’est-à-dire la capacité à prédire un bénéfice sur la SG à partir des résultats de l’essai sur le critère d’évaluation, n’a pas toujours été rigoureusement évaluée. Le projet DATECAN-1 a permis de proposer des recommandations pour la définition et donc l’homogénéisation entre essais cliniques randomisés (ECR) de ces critères [1].De plus, la majorité des essais cliniques de phase III intègrent désormais la qualité de vie relative à la santé (QdV) comme critère de jugement afin d’investiguer le bénéfice clinique de nouvelles stratégies thérapeutiques pour le patient. Une alternative serait de considérer un co-critère de jugement principal : un critère tumoral tel que la survie sans progression et la QdV afin de s’assurer du bénéfice clinique pour le patient [2]. Bien que la QdV soit reconnue comme second critère de jugement principal par l’ASCO (American Society of Clinical Oncology) et la FDA (Food and Drug Administration) [3], elle est encore peu prise en compte comme co-critère de jugement principal dans les essais. L’évaluation, l’analyse et l’interprétation des résultats de QdV demeurent complexes, et les résultats restent encore peu pris en compte par les cliniciens du fait de son caractère subjectif et dynamique [4].Lors de la conception d’un essai clinique avec des critères de jugements principaux multiples, il est essentiel de déterminer la taille de l’échantillon appropriée pour pouvoir indiquer la signification statistique de tous les co-critères de jugements principaux tout en préservant la puissance globale puisque l’erreur de type I augmente avec le nombre de co-critères de jugements principaux. Plusieurs méthodes ont été développées pour l’ajustement du taux d’erreur de type I [5]. Elles utilisent généralement un fractionnement du taux d’erreur de type I appliqué à chacune des hypothèses testées. Toutes ces méthodes sont investiguées dans ce projet.Dans cette optique, les objectifs de mon projet de thèse sont :1) D’étudier l’influence des définitions des critères de survie issus du consensus du DATECAN-1 sur les résultats et les conclusions des essais.2) D’étudier les propriétés des critères de substitution à la SG.3) De proposer un design du calcul du nombre de sujets nécessaires pour une étude clinique de phase III avec des co-critères de jugement de type temps jusqu’à événement tels la survie sans progression et la QdV.L’objectif final de mon projet de thèse est, sur la base de publications, de développer un package R pour le calcul du nombre de sujets nécessaires avec les co-critères de jugement principal et d’étudier les critères de substitutions à la SG pour le cancer du pancréas. / In oncology clinical trial, overall survival (OS) benefit is the gold standard for the approval of new anticancer by the regulatory agencies as the FDA. The need to reduce long-term follow-up, sample size and cost of clinical trials led to use some intermediate endpoint for OS to assess earlier efficacy of treatments. The intermediate endpoints are often used as primary endpoints because they can be assessed earlier and most of the time, these endpoints are composite endpoints because they combine different events. Nevertheless, composite endpoints suffer from important limitations specially the variability of their definitions, which is recognized as a major methodological problem. In this context, the DATECAN-1 project has been developed to provide recommendations and to standardize definitions of time-to-event composite endpoints for each specific diseases and at each specific stage by use of a formal consensus methodology. To validate surrogate endpoints, Buyse and colleagues developed a method based on individual-data meta-analysis, which assesses “individual-level” surrogacy and “trial-level” surrogacy, which is considered as the gold standard.Phase III cancer clinical trials investigators employ more and more two co-primary endpoints. However, an important challenge, in the conception of clinical trials is the sample size calculation according to the main objective(s) and the ability to manage multiple co-primary endpoints. The determination of sample size is fundamental and critical elements in the design of phase III clinical trial. If the sample size is too small, important effects may be go unnoticed. If it is too large, it represents a waste of resources and unethically puts more participants at risk than necessary. The statistical power depends on the total number of events rather than on total sample size.The objectives of my thesis project are:1) To study the impact of the definitions of time-to-event endpoint from the DATECAN-1 consensus on the results and conclusions of the trials published in pancreatic cancer.2) To study the properties of the potential surrogate to the overall survival.3) To propose a design for the determination of sample size necessary for a phase III clinical study with co-primary time-to-event such as progression-free survival and time to quality of life deterioration.The final objective of my thesis project is to develop an R package for the calculation of the number of subjects needed with the co-primary time-to-event in phase III clinical trials.
199

Représentations analogiques et représentations symboliques des quantités : leurs relations entre quatre et six ans / Analogical and symbolic representations of quantity : their relationship between four and six years

Chazoule, Guy 20 December 2012 (has links)
Le modèle du triple code a été proposé par Dehaene (1992 ; Dehaene & Cohen, 2000)sur la base d’arguments neuro-anatomiques et neuropsychologiques pour rendre compte du traitement des nombres et des quantités. Le modèle postule l’existence de trois types de représentations correspondant chacune à un format de l’information numérique : une représentation analogique approximative préverbale, et deux représentations symboliques,l’une verbale, l’autre arabe. Si des études ont pu être mettre en évidence les caractéristiques de la dimension analogique tant chez le nouveau-né que chez l’adulte, la question de la« greffe » chez l’enfant des représentations symboliques sur la représentation analogique reste posée. L’objectif de cette thèse est de rechercher en suivant le développement comment s’effectue cette mise en relation. Nous avons élaboré un ensemble d’épreuves de comparaisons testant chacune une des représentations du modèle du triple code afin de déterminer chez des enfants dès 4 ans des indices de cette mise en relation. Si le lien entre dimensions analogique et symbolique est présent, un effet de rapport, « signature » de ce lien est attendu tant avec les comparaisons analogiques que symboliques. Cinq expérimentations ont été menées : avec des adultes, des enfants de 4 et 5 ans tout-venant, des enfants prématurés et des enfants atteints du syndrome de Down. Les résultats montrent que, dans toutes les populations, l’effet de rapport est présent avec la dimension analogique. Ensuite,entre 4 et 5 ans, avec l’acquisition du code verbal et indo-arabe la représentation symbolique change de nature. Enfin, les populations qui présentent des troubles du traitement du nombre sont affectées essentiellement sur la dimension verbale. Ces résultats sont discutés en regard de deux conceptions alternatives. / The triple code model was proposed by Dehaene (1992 ; Dehaene & Cohen, 2000) onthe basis of neuro anatomical and neuropsychological arguments in order to account for number and quantity processing. This model postulates the existence of three types of representations, a preverbal and approximate analogical representation, and an Arabic and verbal symbolic representations. If researchers have extendedly studied the characteristics of the analogic dimension in the new born as well as the grown up, the issue of the « graft » ofsymbolic representations for the child on analogical representation remains an open debate inthe current literature. The aim of this thesis is to explore how this connection operates with regard to development. We set out a series of comparing tests to try each representation of the triple code model in order to find signs of this connection in children as young as four years old. If a relation ship between the analogical and symbolical dimensions is found then, asignature of this connection is expected to be found in the analogical comparisons as well as in the symbolical. Five different experiments were carried out on adults and four-five year-oldchildren from all walks of life, including prematured and Down Syndrom children. The results show that in all the samples, a ratio effect is found in the analogical dimension. Then between four and five years old, the acquisition of the Indo Arabic and verbal code, the nature of the symbolic representation changes. Finally, populations showing troubles with numbers are mainly affected on the verbal dimension. These results are assessed with regard to two alternative conceptions.
200

Ultrasonic fatigue study of Inconel 718 / Étude de la fatigue ultrasonique de l’Inconel 718

Zhao, Mengxiong 11 September 2018 (has links)
L’Inconel 718 est utilisé dans les disques de turbine des moteurs d’avion, de par sa haute résistance à la corrosion, à l’oxydation, au fluage et sa haute résistance mécanique à très haute température. Le nombre total de cycles de ces composants mécaniques s’élève à 109~1010 durant sa vie. Ils subissent des chargements de grande amplitude à faible fréquence, comme les forces centrifuges ou les contraintes thermiques mais aussi des chargements de faibles amplitudes à très haute fréquence, du aux vibrations des pales. Dans ce travail, on se propose d’étudier la fatigue à très grand nombre de cycles (VHCF) de l’Inconel 718 en utilisant des machines de fatigue ultrasonique, fonctionnant à 20KHz. Le système d’acquisition utilise des cartes NI et le logiciel LabView pour superviser la fréquence, la température, les déplacements durant toute la durée des tests. Des capteurs laser Keyence utilisant deux sondes pour les faces supérieure et inférieure de l’éprouvette permettent de capturer la fréquence et les modes de vibration. La différence entre les valeurs moyennes mesurées permet d’accéder à l’allongement de l’éprouvette, dû à l’auto-échauffement.3 types de matériaux avec différents traitements thermiques, AR, DA et DAHQ de l’ONERA et SAFRAN sont comparés. La différence au niveau de la taille de grain, de la phase, des précipités, … est analysée par micrographie métallographique en utilisant un microscope optique (MO) et un microscope électronique à balayage (MEB). Le comportement en traction quasi-statique et sous chargement cyclique contrainte-déformation est aussi proposé. La transition entre durcissement et adoucissement cyclique apparait à l’issue du traitement thermique. Finalement, les surfaces de ruptures sont observées en utilisant des caméras optiques et un MEB afin d’identifier les mécanismes de ruptures de l’Inconel 718 dans le domaine de la fatigue à très grand nombre de cycles. / Inconel 718 is widely used in turbine disk of aeronautic engines, due to its high resistance to corrosion, oxidation, thermal creep deformation and high mechanical strength at elevated temperature. The total cycle of these mechanical components is up to 109~1010 during its whole lifetime. It endures high-amplitude low-frequency loading including centrifugal force or thermal stress, and also low-amplitude high-frequency loading came from vibration of blade.In this work, the very high cycle fatigue (VHCF) behaviour of Inconel 718 with self-heating phenomenon without any cooling is studied using ultrasonic fatigue system at 20KHz. Acquisition system is improved using NI capture card with LabView for monitoring the frequency, temperature, displacement and so on during all the tests. Keyence laser sensor with two probes at the top and bottom surfaces of the specimens is used to reveal the frequency and vibration mode. The difference of mean values between these two probes is the elongation of the specimen caused by self-heating phenomenon.Three sets of materials with different heat treatment, As-Received (AR), Directly Aged (DA) and Directly Aged High Quality (DAHQ) from ONERA and SAFRAN are compared. The difference of grain size, phase, precipitate particle, etc. is investigated by metallographic micrograph using optical microscope (OM) and scanning electron microscope (SEM). Quasi-static uniaxial tensile property and cyclic stress-strain response is also proposed. The transition from cyclic hardening to cyclic softening appears after aged heat treatment. Finally, fracture surfaces are observed using optical camera and scanning electron microscope in order to identify the mechanism of fracture of Inconel 718 in the VHCF domain.

Page generated in 0.0481 seconds