• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 119
  • 30
  • 18
  • Tagged with
  • 165
  • 70
  • 51
  • 47
  • 33
  • 32
  • 27
  • 20
  • 16
  • 14
  • 13
  • 13
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Acute and chronic effects of quinapril on cardiac function, ventricular remodeling and cytokine expression

Wei, Gecheng 04 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal. / ACE inhibitors reduce the mortality rates for congestive heart failure and myocardial infarction. This has been shown to occur both in patients and in animal post-myocardial infarction (MI) models. Background Inflammatory cytokines have been shown to be activated post-MI and in congestive heart failure (CHF), and to contribute to ventricular dysfunction and remodeling. Angiotensin converting enzyme (ACE) inhibitors have been shown to be beneficial post-MI and in CHF, and we hypothesised that one of the mechanisms by which they exert their beneficial effects is by reducing cardiac expression of cytokines. Methods and results In order to verify this, 402 rats had a MI created by coronary artery ligation. In order to evaluate the benefit of ACE inhibitors started early post-MI, rats were separated into 3 treatment groups and followed 28 days: (1) MI no therapy; (2) quinapril started day 1; and (3) quinapril started day 25. In order to evalute the effects of ACE inhibitors once CHF had developed, 3 more groups were started and followed for a total of 84 days. Following the initiation of CHF (28 days post-MI), rats were randomised to (l) MI no therapy; (2) quinapril started on day 28; (3) quinapril started on day 81. In the early post-MI group, quinapril improved cardiac hemodynamics and prevented the increase in cardiac cytokine expression (tumor necrosis factor-α, interleukin 1β, 5 and 6), regardless of when it was started. Only when quinapril was started on day 1 did it improve ventricular remodeling. In the CHF group (84 days), quinapril had no effect on cardiac hemodynamics or ventricular remodeling. Quinapril, whether started on day 28 or 81, prevented the rise in cardiac cytokine expression. Conclusions In this post-MI model of CHF, ACE inhibitors have more beneficial effects on cardiac hemodynamics and ventricular remodeling when started early post-MI, rather than later when chronic CHF has developed. However, ACE inhibitors attenuate the rise in cardiac cytokine expression in both conditions. This study helps to identify a new mechanism by which ACE inhibitors may exert their beneficial effects in the early and late post MI-setting. / Les inhibiteur de l'enzyme de conversion de l'angiotensine II (IECA) réduisent le taux de mortalité, chez les personnes atteintes de défaillance cardiaque congestive (DCC) et/ou victime d'un infarctus du myocarde (IM). Ceci a été démontré aussi bien chez l'humain que dans des modèles animaux. Les mécanismes responsables des effets bénéfiques observés semblent multiples et incluent des effets hémodynamiques, une réduction des effets cellulaires de l'angiotensine II et une augmentation de la production d'oxyde nitrique. Etant donné que les cytokines inflammatoires sont activées en période post IM et en DCC, et que cette augmentation contribue à l'initiation de dysfonctions ventriculaires et au remodelage, nous émettons l'hypothèse quq les effets bénéfiques observés par ces agents sont aussi la résultante de leurs capacités à réduire le stress oxidatif et l'expression cardiaque de cytokines. Un total de 402 rats ont subi un IM par ligature de l'artère coronaire gauche. Afin d'évaluer les effets des IECAs débutes précocement post IM, les rats ont été séparés en trois groupes et suivis durant une période de 28 jours : (l) IM sans traitement; (2) quinapril débuté le premier jour post IM; et (3) quinapril débuté le 25 jour post IM. De plus, afin d'évaluer les effets des EECAs durant le développement de la DCC (28 jours post IM), trois groupes additionnels ont été suivis durant une période de 84 jours; (l) IM sans traitement; (2) quinapril débuté 28 jours post IM; et (3) quinapril débuté 81 jours post IM. Précocement post IM, quinapril améliore l'hémodynamie cardiaque et prévient l'augmentation de l'expression de cytokines cardiaques (facteur de tumeur nécrosante-α, interleukine-1β, 5 et 10) indépendamment du temps de traitement. Seul le traitement au quinapril appliqué au premier jour post IM résulte en une amélioration du remodelage ventriculaire. Quand débuté plus tardivement post IM (28 jours) le quinapril n'a pas d'effet négatif ou positif sur les paramètres hémodynamiques ou le remodelage ventriculaire. Par contre, le traitement avec le quinapril débuté 28 ou 81 jours post IM, prévient l'augmentation de l'expression de cytokines cardiaques. Dans ce modèle expérimental de DCC subséquent à un IM, les lECAs ont démontré des effets supérieurs sur les paramètres hémodynamiques ou le remodelage ventriculaire lorsque le traitement est débuté tôt post IM, plutôt que tardivement lorsque la DCC est développée. Par contre, les DECAs atténuent l'augmentation de l'expression cardiaque de cytokines dans les deux situations. Cette étude identifie un nouveau mécanisme par lequel les EECAs peuvent conférer des effets bénéfiques précocement et tardivement post IM.
62

L'efficacité de la structure de contrôle des entreprises camerounaises / Efficiency control of cameroonians enterprises

Sangue Fotso, Robert 18 November 2011 (has links)
La qualité de contrôle des dirigeants est susceptible d'avoir un impact sur la réduction des scandales financiers. Une analyse fondée sur les théories contractuelles enrichie des travaux portant sur les théories des organisations et des parties prenantes permet de cerner trois sources d'efficacité de contrôle : la compétence, l'indépendance et le processus de nomination. La démarche analytique suivie a conduit à une étude de cas approfondie et une enquête auprès des entreprises. Il ressort des analyses effectuées que les mécanismes de contrôle sont défaillants ; et le comportement organisationnel des entreprises observées n'influence pas leur performance. Cette thèse a identifié les causes de défaillance et proposé des recommandations pratiques nécessaires à renouveler les fondements théoriques en matière de gouvernement d'entreprise. / The quality of manager's control is likely to reduce financial controversies. An analysis based on both contract theories, organization theories, and theories of stakeholders allows us to identify three channels through which the efficiency of the control can be highlighted that is, expertise, independence and appointment process. The analytical approach is based on a case study and a survey of Cameroon firms. The results show that there are failures in control mechanism and that the organizational behavior of firms has no influence on their performances. This thesis has identified the causes of these failures and suggests some practical recommendations necessary to renew the theoretical foundations for corporate governance.
63

Analyse du rôle des fonctions ventriculaires longitudinales dans les défaillances cardio-circulatoires graves / Analysis of the role of longitudinal ventricular functions in severe cardiac and circulatory failures

Aissaoui, Nadia 05 December 2013 (has links)
Les analyses des fonctions ventriculaires gauche (VG) et droite (VD) et des pressions de remplissage sont des éléments importants dans le contexte des défaillances cardio-circulatoires graves car elles ont des conséquences diagnostiques et pronostiques avec un impact sur les prises de décisions thérapeutiques. Toutefois, l'évaluation de la fonction myocardique en cas de choc reste difficile pour des raisons physiopathologiques et technologiques. Les paramètres de fonction ventriculaire longitudinale (FVL) pourraient avoir un intérêt dans ce domaine car ils permettent une évaluation directe d'une composante majeure de la mécanique ventriculaire. Ces paramètres ont été évalués chez les défaillances chroniques stables et ont montré leurs intérêts diagnostiques et pronostiques. Ils restent très peu étudiés dans les contextes aigues et graves. / Despite advances in management and therapies, cardiogenic shock remains a clinical challenge with high mortality rates.The analysis of left and right ventricular functions and filling pressures are important in this context because they had diagnostic and prognostic consequences with impact in therapeutic decisions. Nevertheless, the assessment of myocardial function remains difficult for physiopathologic and technical reasons. The parameters of longitudinal ventricular function (LgVF) could have an interest in this context because they permit a direct assessment of a major component of ventricular mechanics whereas ejection fraction remains a global evaluation. These indices were assessed in chronic and stable heart failure patients and were found to have prognostic and diagnostic interests. Though, they were not evaluated in the context of acute and severe cardio-circulatory failures.
64

Analyse de défaillance des circuits intégrés par émission de lumière dynamique : développement et optimisation d'un système expérimental

Remmach, Mustapha 03 September 2009 (has links)
L’émission de lumière est une puissante technique de localisation dans le domaine de l’analyse de défaillance des circuits intégrés. Depuis plusieurs années, elle est utilisée comme une technique capable de localiser et d’identifier des défauts émissifs, tels que les courants de fuites, en fonctionnement statique du composant. Cependant, l’augmentation d’intégration et des performances des circuits actuels implique l’apparition d’émissions de défauts dynamiques dus à l’utilisation de fréquences de fonctionnement de plus en plus élevées. Ces contraintes imposent une adaptation de la technique d’émission de lumière qui doit donc évoluer en même temps que l’évolution des circuits intégrés. C’est dans ce contexte que de nouveaux modes de détection, liés à l’émission de lumière, est apparu : PICA et TRE. Ainsi, les photons sont collectés en fonction du temps donnant ainsi une place importante à la technique par émission de lumière dynamique pour le debbug et l’analyse de défaillance en procédant à une caractérisation précise des défauts issus des circuits intégrés actuels. Pour répondre aux exigences dues à l’analyse du comportement dynamique des circuits intégrés, des méthodes ont été identifiées à travers la technique PICA et la technique d’émission en temps résolu connue sous le nom de technique mono-point TRE. Cependant, les techniques PICA et TRE sont exposées à un défi continu lié à la diminution des technologies et donc des tensions d’alimentation. Pour analyser des circuits de technologies futures à faible tension d’alimentation, il est nécessaire de considérer différentes approches afin d’améliorer le rapport signal sur bruit. Deux solutions sont présentées dans ce document : un système de détection optimisé et des méthodes de traitement de signal. / Light emission is a powerful technique for the characterization of failed integrated circuits. For years, faults have been identified in a static configuration of the device. Just by providing the power supply, abnormal current leakage could be located. With the growing complexity of devices, some fault may appear only in the middle of the test sequence. As a result the evolution of light emission was to use the same detector to acquire the image of a running circuit. A new mode of light emission came became available: PICA or picoseconds IC analysis. With this configuration, photons are collected as a function of time. This technique became mainstream for IC debug and failure analysis to precisely characterize IC. Light emission has also reached dynamic IC requirements through PICA and Single-point PICA also known as TRE. However, light emission and TRE is facing a continuous challenge with technologies shrinkage and its associated power supply voltage drop. To work with recent IC technologies with ultra low VDD voltage, it is necessary to take a different approach, to improve the signal to ratio. Two solutions are presented in this document: A best detection system and TRE and PICA signal processing development.
65

Introduction de pièces déformables dans l’analyse de tolérances géométriques de mécanismes hyperstatiques / Introduction of flexible parts in tolerance analysis of over-constrained mechanisms

Gouyou, Doriane 04 December 2018 (has links)
Les mécanismes hyperstatiques sont souvent utilisés dans l’industrie pour garantir une bonne tenue mécanique du système et une bonne robustesse aux écarts de fabrication des surfaces. Même si ces assemblages sont très courants, les méthodologies d’analyse de tolérances de ces mécanismes sont difficiles à mettre en oeuvre.En fonction de ses écarts de fabrication, un assemblage hyperstatique peut soit présenter des interférences de montage, soit être assemblé avec jeu. Dans ces travaux de thèse, nous avons appliqué la méthode des polytopes afin de détecter les interférences de montage. Pour un assemblage donné, le polytope résultant du mécanisme est calculé. Si ce polytope est non vide, l’assemblage ne présente pas d’interférence. Si ce polytope est vide, l’assemblage présente des interférences de montage. En fonction du résultat obtenu, deux méthodes d’analyse distinctes sont proposées.Si l’assemblage est réalisable sans interférence le polytope résultant du mécanisme permet de conclure sur sa conformité au regard de l’exigence fonctionnelle. Si l’assemblage présente des interférences de montage, une analyse prenant en compte la raideur des pièces est réalisée. Cette approche est basée sur une réduction de modèle avec des super-éléments. Elle permet de déterminer rapidement l’état d’équilibre du système après assemblage. Un effort de montage est ensuite estimé à partir de ces résultats pour conclure sur la faisabilité de l’assemblage. Si l’assemblage est déclaré réalisable, la propagation des déformations dans les pièces est caractérisée pour vérifier la conformité du système au regard de l’exigence fonctionnelle.La rapidité de mise en oeuvre de ces calculs nous permet de réaliser des analyses de tolérances statistiques par tirage de Monte Carlo pour estimer les probabilités de montage et de respect d’une Condition Fonctionnelle. / Over-constrained mechanisms are often used in industries to ensure a good mechanical strength and a good robustness to manufacturing deviations of parts. The tolerance analysis of such assemblies is difficult to implement.Indeed, depending on the geometrical deviations of parts, over-constrained mechanisms can have assembly interferences. In this work, we used the polytope method to check whether the assembly has interferences or not. For each assembly, the resulting polytope of the mechanism is computed. If it is non empty, the assembly can be performed without interference. If not, there is interferences in the assembly. According to the result, two different methods can be implemented.For an assembly without interference, the resulting polytope enables to check directly its compliance. For an assembly with interferences, a study taking into account the stiffness of the parts is undertaken. This approach uses a model reduction with super elements. It enables to compute quickly the assembly with deformation. Then, an assembly load is computed to conclude on its feasibility. Finally, the spreading of deformation through the parts is calculated to check the compliance of the mechanism.The short computational time enables to perform stochastic tolerance analyses in order to provide the rates of compliant assemblies.
66

Conception et simulation des circuits numériques en 28nm FDSOI pour la haute fiabilité / Design and Simulation of Digital Circuits in 28nm FDSOI for High Reliability

Sivadasan, Ajith 29 June 2018 (has links)
La mise à l'échelle de la technologie CMOS classique augmente les performances des circuits numériques grâce à la possibilité d'incorporation de composants de circuit supplémentaires dans la même zone de silicium. La technologie FDSOI 28nm de ST Microélectroniques est une stratégie d'échelle innovante qui maintient une structure de transistor planaire et donc une meilleure performance sans augmentation des coûts de fabrication de puces pour les applications basse tension. Il est important de s'assurer que l'augmentation des fonctionnalités et des performances ne se fasse pas au détriment de la fiabilité réduite, ce qui est assuré en répondant aux exigences des normes internationales ISO26262 pour les applications critiques dans les environnements automobile et industriel. Les entreprises de semi-conducteurs, pour se conformer à ces normes, doivent donc présenter des capacités d'estimation de la fiabilité au stade de la conception du circuit, qui est pour l'instant évaluer qu'après la fabrication d'un circuit numérique. Ce travail se concentre sur le vieillissement des standard cell et des circuits numériques avec le temps sous l'influence du mécanisme de dégradation du NBTI pour une large gamme de variations de processus, de tension et de température (PVT) et la compensation de vieillissement avec l'application de la tension à la face arrière (Body-Bias). L'un des principaux objectifs de cette thèse est la mise en place d'une infrastructure d'analyse de fiabilité composée d'outils logiciels et d'un modèle de vieillissement dans un cadre industriel d'estimation du taux de défaillance des circuits numériques au stade de la conception des circuits développés en technologie ST 28nm FDSOI. / Scaling of classical CMOS technology provides an increase in performance of digital circuits owing to the possibility of incorporation of additional circuit components within the same silicon area. 28nm FDSOI technology from ST Microelectronics is an innovative scaling strategy maintaining a planar transistor structure and thus provide better performance with no increase in silicon chip fabrication costs for low power applications. It is important to ensure that the increased functionality and performance is not at the expense of decreased reliability, which can be ensured by meeting the requirements of international standards like ISO26262 for critical applications in the automotive and industrial settings. Semiconductor companies, to conform to these standards, are thus required to exhibit the capabilities for reliability estimation at the design conception stage most of which, currently, is done only after a digital circuit has been taped out. This work concentrates on Aging of standard cells and digital circuits with time under the influence of NBTI degradation mechanism for a wide range of Process, Voltage and Temperature (PVT) variations and aging compensation using backbiasing. One of the principal aims of this thesis is the establishment of a reliability analysis infrastructure consisting of software tools and gate level aging model in an industrial framework for failure rate estimation of digital circuits at the design conception stage for circuits developed using ST 28nm FDSOI technology.
67

Modélisation des phases précoces de la maladie d’Alzheimer par transfert de gènes / Mimic early phases of Alzheimer's disease by gene transfer

Audrain, Mickaël 25 March 2016 (has links)
L’évaluation de biomarqueurs et de thérapies innovantes pour la maladie d’Alzheimer (MA) souffre de la mauvaise compréhension des phases initiales de la maladie mais également du manque de modèles animaux pertinents et proches de la physiopathologie humaine. La majorité des modèles rongeurs disponibles reproduisent en seulement quelques mois les lésions classiques de la MA telles que les plaques amyloïdes et les dégénérescences neurofibrillaires (DNF), alors que leur apparition prend des années chez l’Homme. L’objectif de mon travail de doctorat a été de développer une nouvelle stratégie de modélisation des phases précoces de la MA sans surexpression majeure de transgène. Pour cela, nous avons utilisé le co-transfert des gènes humains APPSL et PS1M146L à l’aide de vecteurs viraux dans l’hippocampe de souris et de rats de 8 semaines. Nous avons caractérisé ces modèles et montré une production de peptides, comme le betaCTF ou l’abeta?42 issus du clivage de l’APP, similaire à ce que l’on observe dans l’hippocampe de patients atteints de la MA. Nous avons également montré une hyperphosphorylation de Tau et une défaillance synaptique caractérisée par une diminution des niveaux de PSD-95 et GLT-1 ainsi que par une augmentation du courant tonique glutamatergique. Ces modifications ont enfin été associées à des défauts comportementaux. Mes résultats suggèrent que de nombreux évènements apparaissent bien avant la formation des plaques amyloïdes ou des DNFs et conduisent à une perturbation de la synapse et à l’apparition précoce de défauts comportementaux. Nous disposons donc d’outils relevants quant à la compréhension des premiers stades de la MA qui permettront à la fois de tester de nouveaux composés médicaments sur ces modèles à large fenêtre thérapeutique, et de découvrir de nouveaux biomarqueurs précoces dans le plasma et le liquide cérébro-spinal. / Evaluation of biomarkers and new innovative therapies for Alzheimer's disease (AD) suffers from a misunderstanding of early phases and lack of appropriate animal models close to the human physiopathology. Most available rodent models reproduce hallmarks of AD such as amyloid plaques and neurofibrillary tangles in a few months, while it takes many years to be achieved in human. My PhD work consisted to develop a new modelling strategy of AD early phases without major overexpression of transgenes. To do so, we used gene transfer of human APPSL and PS1M146L using viral vectors injection in the hippocampus of 8 weeks old mice and rats. We characterized these models and showed peptides production, such as betaCTF and abeta42 from APP processing, similar to what is observed in AD patients hippocampi. We also highlighted a hyperphosphorylation of Tau followed by a synaptic failure characterized by a decrease of PSD-95 and GLT-1 levels and by an increase of the tonic current mediated by glutamate. These changes have been finally associated with behavioral deficits. My results suggest that many events appear well before the formation of amyloid plaques or tangles and lead to the disruption of the synapse and the early onset of behavioral defects. Thus, we now have relevant tools to understand the early stages of AD, which will allow us to test new drug compounds on these models with a wide therapeutic window and discover new early biomarkers in plasma and cerebrospinal fluid.
68

Étude des techniques d'analyse de défaillance et de leur utilisation dans le cadre de l’évaluation de la sécurité des composants de traitement de l’information / Considering ways of failure analysis and their use in the security evaluation of the information processing circuits

Di Battista, Jérôme 11 April 2011 (has links)
Les travaux présentés concernent l'exploration des techniques de localisation utilisées en analyse de défaillance dans le but de les appliquer au domaine de la sécurité numérique des circuits et systèmes intégrés. Ces travaux contribuent, d'une part à étendre le champ d'application des techniques d'analyses de vulnérabilités, et d'autre part à apporter des éléments de réponses sur la faiblesse des implémentations cryptographiques sur circuits de type FPGA. Cette thèse s'inscrit donc dans une démarche à la fois de prévention mais aussi de veille technologique en matière d'attaque en apportant un complément d'information sur la faiblesse des implémentations matérielles de systèmes sécurisés. Dans le cadre de l'évaluation des composants de traitement de l'information par les laboratoires agréés (CESTI), l'analyse de vulnérabilité, et plus spécifiquement la cryptanalyse matérielle, a pour but d'éprouver la sécurité des systèmes d'information (composants cryptographiques, carte bancaire, systèmes de cryptage, etc..) dans le but de tester leur résistance face aux attaques connues. En parallèle, dans le cadre de l'analyse de défaillance des circuits utilisés dans le domaine spatial, la localisation de défauts consiste à collecter et analyser les données d'un circuit défaillant afin d'identifier la source du défaut à l'aide de puissants outils. La combinaison de ces deux activités nous a permis dans un premier temps, d'exploiter la lumière émise par un circuit comme un signal de fuite de type « side-channel » par le biais d'une méthode d'attaque semi-invasive par canal auxiliaire, Differential Light Emission Analysis (DLEA). Cette attaque, basée sur un traitement statistique des courbes d'émission de lumière, a permis d'extraire les sous-clés utilisées par un algorithme DES implanté sur circuit FPGA. Dans un second temps, nous avons proposé une seconde technique basée sur la stimulation laser consistant à exploiter l'effet photoélectrique afin d'améliorer les attaques par canaux auxiliaires « classiques ». Pour cela, une attaque DPA améliorée par stimulation laser a été mise en place. Ainsi nous avons démontré que le balayage du faisceau laser sur certains éléments du cryptosystème (algorithme DES implanté sur FPGA) augmente sa signature DPA permettant ainsi de diminuer sensiblement le nombre de courbes de consommation nécessaires pour extraire les sous-clés utilisées par l'algorithme. / The purpose of failure analysis is to locate the source of a defect in order to characterize it, using different techniques (laser stimulation, light emission, electromagnetic emission...). Moreover, the aim of vulnerability analysis, and particularly side-channel analysis, is to observe and collect various leakages information of an integrated circuit (power consumption, electromagnetic emission ...) in order to extract sensitive data. Although these two activities appear to be distincted, they have in common the observation and extraction of information about a circuit behavior. The purpose of this thesis is to explain how and why these activities should be combined. Firstly it is shown that the leakage due to the light emitted during normal operation of a CMOS circuit can be used to set up an attack based on the DPA/DEMA technique. Then a second method based on laser stimulation is presented, improving the “traditional” attacks by injecting a photocurrent, which results in a punctual increase of the power consumption of a circuit. These techniques are demonstrated on an FPGA device.
69

Nouvelle théorie hémodynamique « flux et rythme » : concept et applications précliniques en utilisant des nouveaux dispositifs d’assistance circulatoire directeur / New Hemodynamic Theory “Flow and Rate” : Concept and clinical applications using new pulsatile circulatory assist devices.

Nour, Sayed 12 December 2012 (has links)
Le coeur et les vaisseaux sanguins sont directement issus de l'endothélium et dépendent de sa fonction. Le coeur ne représente pas la seule force motrice de notre système circulatoire, la plupart des stratégies thérapeutiques actuelles des maladies cardiovasculaires sont encore focalisées sur le coeur, négligeant l'ensemble du système circulatoire et le système endothélial. Par exemple, le développement de Dispositifs d'Assistance Cardiaque (DAC) est influencé par le coeur, conçu pour suivre,obéir et doit être synchronisé avec un organe malade.De nombreux « signaux » de nature différente sont capables d’activer les cellules endothéliales : les forces de cisaillement créées par le flux sanguin parallèle à la surface de la paroi des vaisseaux, mais également les forces perpendiculaires provoquées par l’étirement de la paroi artérielle par les variations de la pression et la qualité cyclique de ces forces. L’activation de cellules endothéliales est due à la pulsatilité du flux mais aussi à l’action de substances vasoactives et des médiateurs de l’inflammation.Dans notre travail de thèse, nous proposons une nouvelle approche thérapeutique,basée sur une révision fondamentale de l'ensemble du système circulatoire: exposer les défauts de la gestion courante des maladies cardiovasculaires (MCV). Notre nouveau concept se concentre sur la dynamique des flux sanguins pour stimuler,restaurer et maintenir la fonction endothéliale, et compris le coeur lui-même. Nous avons développé et évalué une nouvelle génération de DAC pulsatiles, testée in vitro et in vivo.Pendant le déroulement de cette thèse nous avons effectué les études suivantes:1. Etude d’un prototype de cathéter pulsatile. Il est testé de manière isolée dans un modèle expérimental d’ischémie aiguë du myocarde et dans un modèle d’hypertension pulmonaire aiguë.2. Etude d’un prototype de tube pulsatile à double lumière. Il est testé in-vitro dans un circuit de circulation extracorporelle, et in vivo comme assistance ventriculaire gauche.73. Etude d’un prototype de combinaison pulsatile. Il est testé sur un modèle animal présentant une défaillance aiguë du ventricule droit. Des prototypes de masques et de pantalons pulsatiles sont en développement.En conclusion, notre approche est basée sur l’activation de la fonction endothéliale plutôt qu’en une assistance cardiaque directe. Ce concept permet une meilleure gestion thérapeutique des maladies circulatoires et cardio-pulmonaires. / The “Heart” is still considered as the main organ to be dealt with, in case ofcardiovascular disease. Nevertheless, the heart is not the only driving force in ourcirculatory system. In fact, the heart and blood vessels are the direct issues of theendothelium and depend on its function. Moreover, almost all current therapeuticstrategies are still focusing on the heart and neglecting the entire circulatoryendothelialsystem. For example, development of cardiac assist devices (CAD) is stillrestrained by the heart, designed to follow, obey and must be synchronized with adiseased organ.Many "signals" of different nature are capable of activating endothelial cells: the shearforces created by the blood flow parallel to the surface of the vessel wall, but alsoforces caused by stretching perpendicular to the artery wall by the cyclic pressuregradient and the quality of these forces. The activation of endothelial cells is due tothat pressurized flow dynamic forces, but also to the action of vasoactive substancesand inflammatory mediators.In this thesis we are proposing a new therapeutic approach, based on a fundamentalrevision of the entire systems: exposing those defects of current management ofcardiovascular diseases (CVD). A concept that focuses on flow dynamics to stimulate,restore and maintain endothelial function including the heart itself. This includespreliminary results of new generations of pulsatile CAD that promote endothelial shearstress (ESS) enhancement. Devices prototypes were tested.During this thesis, pulsatile devices prototypes were tested in vivo, in vitro as well aswith pre-clinical volunteers as follow:1. A pulsatile catheter prototype was tested in 2 pediatric animal models (piglets) of:acute myocardial ischemia; and acute pulmonary arterial hypertension.2. A pulstile tube prototype was tested in vitro (mock circuit) and in vivo (piglets) as aleft ventricular assist device (ongoing).3. Pulsatile suit prototypes were tested: in vivo (piglets) for acute right ventricularfailure treatment. Prototypes of pulsatile mask and trousers are currently in plannedfor pre-clinical studies.9Conclusion, Think endothelial instead of cardiac is our policy for better management ofCVD.
70

Sequential Design of Experiments to Estimate a Probability of Failure. / Planification d'expériences séquentielle pour l'estimation de probabilités de défaillance

Li, Ling 16 May 2012 (has links)
Cette thèse aborde le problème de l'estimation de la probabilité de défaillance d'un système à partir de simulations informatiques. Lorsqu'on dispose seulement d'un modèle du système coûteux à simuler, le budget de simulations est généralement très limité, ce qui est incompatible avec l’utilisation de méthodes Monte Carlo classiques. En fait, l’estimation d’une petite probabilité de défaillance à partir de simulations très coûteuses, comme on peut rencontrer dans certains problèmes industriels complexes, est un sujet particulièrement difficile. Une approche classique consiste à remplacer le modèle coûteux à simuler par un modèle de substitution nécessitant de faibles ressources informatiques. A partir d’un tel modèle de substitution, deux opérations peuvent être réalisées. La première opération consiste à choisir des simulations, en nombre aussi petit que possible, pour apprendre les régions de l’espace des paramètres du système qui construire de bons estimateurs de la probabilité de défaillance. Cette thèse propose deux contributions. Premièrement, nous proposons des stratégies de type SUR (Stepwise Uncertainty Reduction) à partir d’une formulation bayésienne du problème d’estimation d’une probabilité de défaillance. Deuxièmement, nous proposons un nouvel algorithme, appelé Bayesian Subset Simulation, qui prend le meilleur de l’algorithme Subset Simulation et des approches séquentielles bayésiennes utilisant la modélisation du système par processus gaussiens. Ces nouveaux algorithmes sont illustrés par des résultats numériques concernant plusieurs exemples de référence dans la littérature de la fiabilité. Les méthodes proposées montrent de bonnes performances par rapport aux méthodes concurrentes. / This thesis deals with the problem of estimating the probability of failure of a system from computer simulations. When only an expensive-to-simulate model of the system is available, the budget for simulations is usually severely limited, which is incompatible with the use of classical Monte Carlo methods. In fact, estimating a small probability of failure with very few simulations, as required in some complex industrial problems, is a particularly difficult topic. A classical approach consists in replacing the expensive-to-simulate model with a surrogate model that will use little computer resources. Using such a surrogate model, two operations can be achieved. The first operation consists in choosing a number, as small as possible, of simulations to learn the regions in the parameter space of the system that will lead to a failure of the system. The second operation is about constructing good estimators of the probability of failure. The contributions in this thesis consist of two parts. First, we derive SUR (stepwise uncertainty reduction) strategies from a Bayesian-theoretic formulation of the problem of estimating a probability of failure. Second, we propose a new algorithm, called Bayesian Subset Simulation, that takes the best from the Subset Simulation algorithm and from sequential Bayesian methods based on Gaussian process modeling. The new strategies are supported by numerical results from several benchmark examples in reliability analysis. The methods proposed show good performances compared to methods of the literature.

Page generated in 0.0679 seconds