• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 227
  • 86
  • 19
  • 1
  • Tagged with
  • 325
  • 173
  • 60
  • 42
  • 27
  • 21
  • 20
  • 20
  • 20
  • 19
  • 19
  • 17
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Photo-renaturation de protéines par des macromolécules chaperonnes

Ruchmann, Juliette 27 October 2009 (has links) (PDF)
Nous avons cherché à concevoir des macromolécules ayant un comportement de chaperonne vis à vis de diverses protéines et notamment en fondant leur activité sur des propriétés stimulables par la lumière. Les interactions hydrophobes constituent un paramètre clé de l'effet chaperonne qui a été mis en évidence dans les chaperonnes biologiques aussi bien que dans les chaperonnes artificielles. Nous avons synthétisé des polymères à amphiphilie photo-stimulable portant des chaînes pendantes azobenzènes. Ces polymères sont capables d'association/dissociation photo-stimulables avec des particules colloïdales à coeur hydrophobe. Différents paramètres peuvent moduler ces associations comme la force ionique, le taux de modification hydrophobe, la nature du greffon... Ces polymères ont montré plusieurs propriétés caractéristiques de chaperonnes artificielles : ils déstabilisent une protéine modèle, le cytochrome C, protègent de l'agrégation et augmentent l'efficacité des procédés de renaturation de l'anhydrase carbonique et d'un fragment d'anticorps surexprimé en bactérie. L'évolution du repliement a été caractérisée par suivi des structures secondaires en dichroïsme circulaire et par suivi de la compacité des protéines en fluorescence. L'association polymère/protéine a été étudiée par électrophorèse capillaire et par diffusion de la lumière.
122

Les indicateurs de développement durable. Fondements et applications. / Indicators of sustainable development. Fundamentals and applications

Kestemont, Bruno 28 June 2010 (has links)
Existe-t-il un consensus scientifique sur les conditions de la durabilité ? Est-il possible de construire un indicateur unique de soutenabilité faible ? Quelles sont les composantes objectives et subjectives des indicateurs ? Peut-on envisager des indicateurs objectifs de soutenabilité ? Quelles voies de recherche sont-elles nécessaires pour développer des indicateurs de développement durable ? Telles sont les questions auxquelles cet ouvrage tente de répondre. La comparaison des courants de la soutenabilité faible et de la soutenabilité forte nous sert de fil conducteur pour évaluer la part normative et la part objective du choix des paramètres et de leur méthode d'agrégation. L'agrégation arithmétique implique des hypothèses de substituabilité entre les facteurs, ce qui relève de la soutenabilité faible. La pondération, toujours normative, peut être explicite ou se traduire par le choix d'une unité ou dimension unique. Nous redéfinissons la soutenabilité faible comme étant la réduction de la complexité à une dimension unique. Il y a dès lors autant d'indicateurs de soutenabilité faible que de choix possibles de cette dimension unique. En particulier, l'empreinte écologique par habitant relève d'une forme "écologique" de soutenabilité faible. Le prix de marché est l'unité fondamentale de mesure de sa forme "économique". Nous montrons que les acteurs ne savent pas bien identifier leur intérêt et qu'ils ne sont pas parfaitement égoïstes, ce qui introduit un biais non systématique remarquable dans toute mesure en unité monétaire. La soutenabilité forte se caractérise par la multiplicité de dimensions ou "capitaux critiques" dont le dépassement d'un seul suffit à déterminer la non soutenabilité. Les différentes formes de soutenabilités faibles peuvent représenter des capitaux critiques parmi d'autres. Nous présentons une typologie des acteurs et du partage des responsabilités, également susceptible d'introduire des grandes divergences dans les résultats publiés. Quelques études de cas illustrent ces différents éléments dans des contextes contrastés. L'empreinte écologique de consommation se limite en particulier à une responsabilisation du seul consommateur, alors que les comptes nationaux permettent d'envisager la coresponsabilité de l'ensemble des acteurs. L'indicateur de "dématérialisation de l'économie" appliqué à un village indien montre la pertinence de mesurer l'utilisation absolue de matière sans pondération monétaire. Il est par ailleurs possible de minimiser le coût de dépollution sans toucher à la limite absolue d'émissions globales de centrales thermiques. Les deux dimensions, coûts sociaux et bénéfices environnementaux, peuvent donc être traitées séparément. En conclusion, il est possible d'identifier, dans chaque calcul d'indicateur de développement durable, une composante relativement objective de soutenabilité "forte" et une composante "faible", négociable, de partage des droits et responsabilités. / We study how different world views may influence how to develop sustainable development indicators. The comparison of weak sustainability and strong sustainability serves as a guide to estimate the share of objective versus normative choice of parameters and their method of aggregation. We then present a typology of actors and shared responsibilities, which may also introduce large discrepancies in the results published. Some case studies illustrate these different elements in contrasting contexts. It appears that it is possible to identify in each calculation of sustainable development indicator, a relatively objective component of sustainability and a negotiable component of shared rights and responsibilities.
123

Estimation robuste des modèles de mélange sur des données distribuées

El Attar, Ali 12 July 2012 (has links) (PDF)
Cette thèse propose une contribution en matière d'analyse de données, dans la perspective de systèmes informatiques distribués non-centralisés, pour le partage de données numériques. De tels systèmes se développent en particulier sur internet, possiblement à large échelle, mais aussi, par exemple, par des réseaux de capteurs. Notre objectif général est d'estimer la distribution de probabilité d'un jeu de données distribuées, à partir d'estimations locales de cette distribution, calculées sur des sous- jeux de données locaux. En d'autres termes, il s'est agi de proposer une technique pour agréger des estimés locaux pour en faire un estimé global. Notre proposition s'appuie sur la forme particulière que doivent prendre toutes les distributions de probabilité manipulées : elles doivent se formuler comme un mélange de lois gaussiennes multivariées. Notre contribution est une solution à la fois décentralisée et statistiquement robuste aux modèles locaux aberrants, pour mener à bien l'agrégation globale, à partir d'agrégations locales de mélanges de lois gaussiennes. Ces agrégations locales ne requièrent un accès qu'aux seuls paramètres des modèles de mélanges, et non aux données originales.
124

Spécification et implémentation du système d'aide à la décision multicritère pour la maintenance préventive et la gestion du patrimoine de la société d'autoroute ESCOTA : le projet SINERGIE

Sanchez, Céline 06 December 2007 (has links) (PDF)
Face au vieillissement de l'infrastructure, la société d'autoroutes ESCOTA a décidé de formaliser et améliorer le processus décisionnel pour la maintenance préventive et la gestion du patrimoine infrastructure dans un environnement multi acteurs et multicritère. Le traitement de l'information chez ESCOTA peut être formalisé selon un processus en trois étapes : mesure, évaluation et décision. Des inspections périodiques permettent de détecter les symptômes de pathologies ou des défauts de fonctionnement. L'expert métier (chaussées, ouvrages d'art, ...) évalue la situation de chaque élément de patrimoine et lui associe un degré d'urgence. Le responsable de l'infrastructure évalue la priorité de l'opération à un niveau stratégique. Des critères spécifiques et un opérateur d'agrégation (Moyenne Pondérée -- MP) sont associés à chaque étape de ce processus d'évaluation. La MP est calculée par l'agrégation des scores partiels affectés à l'opération. Dans la pratique, les scores partiels sont exprimés sur une échelle finie. Nous proposons une méthodologie d'évaluation cohérente qui permet 1) aux experts d'exprimer leurs valeurs de jugements dans leur univers de discours discret, 2) de convertir les étiquettes symboliques en valeurs numériques via la méthode MACBETH et des techniques de clustering, 3) de calculer la valeur numérique de la MP puis de la convertir dans l'univers de discours des experts, 4) d'effectuer une analyse de robustesse pour diagnostiquer le risque d'erreur de classification. Cette méthode a été implémentée dans un Système de Traitement de l'Information --SINERGIE-- pour la programmation des opérations via une procédure adéquate de traitement de l'information.
125

Agrégation irréversible par patchs de particules colloïdales : une étude par simulation numérique

Prabhu, Achutha 10 December 2012 (has links) (PDF)
La variété des structures colloïdales auto assemblées est principalement due à la présence d'interactions anisotropes. Nous présentons ici une méthode numérique pour étudier l'agrégation irréversible par patches de particules sphériques. Il s'agit d'une amélioration de la dynamique d'amas browniens prenant en compte les interactions par patches et les mouvements de rotation. Nous limitons notre étude aux particules à deux patches opposés de taille variable. Une interaction isotrope, faible, est également ajoutée pour modéliser une polymérisation par étape dans diverses conditions de solvant. Cet algorithme a été testé sur des chaînes isolées et nous avons retrouvé les propriétés statiques et dynamiques attendues. En jouant sur la balance entre la qualité du solvant et la taille des patches diverses morphologies hors-équilibres sont obtenues. Même dans la limite diluée, les collisions corrélées jouent un rôle important et une description de type Smoluchowski échoue.
126

Apport des mesures de température de surface par télédétection infrarouge thermique pour la modélisation des échanges d'énergie et d'eau à l'interface sol végétation atmosphère

Coudert, Benoit 06 December 2006 (has links) (PDF)
La température des surfaces naturelles est un terme clé du bilan d'énergie et d'eau à l'interface entre le sol la végétation et l'atmosphère (SVA). Cette variable est accessible par télédétection dans le domaine spectral infrarouge thermique correspondant à une fenêtre atmosphérique pour les mesures spatiales. Dès lors, des mesures fréquentes de celle-ci au niveau du sol ou par satellite comme celles du capteur SEVIRI de MétéoSat8 (MSG) à la résolution du quart d'heure, permettent le suivi continu des échanges de surface. La représentation numérique de ces échanges pour les couverts végétaux par des modèles TSVA comme le modèle SEtHyS, utilisé pour cette étude, peut alors être contrainte par l'assimilation de la température de surface. La spécificité de ce travail de thèse a été de développer une méthodologie basée sur la dynamique de son cycle diurne pour suivre le bilan d'énergie et d'eau à l'interface SVA au niveau de la parcelle agricole puis à l'échelle du paysage hétérogène.
127

DEFINITION D'UNE METHODOLOGIE DE CONCEPTION DES SYSTEMES MECATRONIQUES SURS DE FONCTIONNEMENT

Schoenig, Raphaël 26 October 2004 (has links) (PDF)
La révolution technologique que connaît le secteur automobile avec la multiplication des<br />systèmes électroniques et informatiques embarqués n'est pas près de s'essouffler. Il est<br />manifeste que la complexité croissante et la spécificité des systèmes embarqués justifieront de<br />plus en plus le besoin de structurer l'ensemble des activités de développement. Vérification,<br />validation, conception et bien entendu sûreté de fonctionnement font partie intégrante d'un<br />même processus. Nous cherchons tout d'abord à définir un formalisme de modélisation<br />fonctionnelle et comportementale, support de la méthodologie, et en cohérence avec les<br />spécificités des systèmes mécatroniques. En particulier, les aspects hybrides et temps réel<br />doivent pouvoir être représentés. Ensuite, sur le plan de la vérification et de la validation,<br />nous proposons d'exploiter les méthodes formelles, telles que le model-checking, en<br />complément des tests et des simulations habituellement utilisées dans l'industrie. Enfin nous<br />attachons une importance centrale à la sûreté de fonctionnement. Afin de pallier aux<br />insuffisances et aux limites des méthodes habituellement utilisées, nous proposons une<br />approche basée sur la construction d'un graphe de Markov agrégé. L'originalité tient dans sa<br />capacité de répondre à un problème de représentation et d'évaluation de la fiabilité des<br />systèmes dynamiques hybrides. Les principales étapes consistent à découpler la dynamique du<br />système et la dynamique du processus de défaillance grâce à la théorie des perturbations<br />singulières, puis d'identifier et estimer les grandeurs du système influençant la dynamique des<br />défaillances. Ces grandeurs sont évaluées par de simples simulations dans le but de pouvoir<br />traiter des systèmes complexes. Ceux-ci sont alors intégrés dans le graphe agrégé.
128

L'autophagie dépendante du facteur de transcription NFκB : un mécanisme de réponse à l'hyperthermie et à l'agrégation protéique

Nivon, Mathieu 05 October 2011 (has links) (PDF)
La réponse au choc thermique est un mécanisme de défense largement décrit au cours duquel l'expression préférentielle des protéines de choc thermique Hsp aide la cellule à récupérer des dommages causés par l'hyperthermie, comme la dénaturation/agrégation des protéines. Une des conséquences du choc thermique mise en évidence au laboratoire, est l'activation du facteur de transcription NFκB. Cette activation a lieu pendant la période de récupération suivant ce stress. Par comparaison de la réponse au choc thermique de cellules témoins ou déficientes en NFκB, nous avons cherché à étudier les conséquences de l'activation de NFκB par le choc thermique. Nous avons montré que NFκB active un mécanisme augmentant la survie des cellules soumises à une hyperthermie : l'autophagie. L'absence d'induction de ce mécanisme conduit à la mort par nécrose des cellules déplétées en NFκB. Dans ces cellules, l'induction artificielle de l'autophagie restaure une survie normale au stress thermique. Nous avons montré que les principaux régulateurs de l'autophagie (complexes mTOR et PI3Kinase de Classe III) ne sont pas des cibles modulées par NFκB, en réponse à une hyperthermie. En revanche, l'accumulation de protéines dénaturées voire agrégées est un élément primordial pour l'activation de l'autophagie-dépendante de NFκB. En effet dans les cellules déficientes pour NFκB, contrairement aux cellules témoins, l'accumulation de protéines agrégées induite par le traitement hyperthermique, mais aussi par l'expression de formes mutées d'HspB5, n'est pas résorbée ; ceci indique que le contrôle qualité des protéines est altéré dans ces cellules. Cette altération pourrait provenir d'un défaut de formation du complexe BAG3-HspB8 en absence de NFκB. En effet, nous avons montré que la forte expression des gènes bag3 et hspb8, induite suite au stress thermique, est dépendante de NFκB et que l'accumulation du complexe BAG3-HspB8, observé dans les cellules témoins soumises au choc thermique, est inhibée dans les cellules déficientes pour NFκB. Nos résultats démontrent que NFκB induit un processus autophagique en réponse à l'agrégation protéique induite par l'hyperthermie. Ce mécanisme, nécessitant la formation du complexe BAG3-HspB8, augmente la survie des cellules probablement par l'élimination des protéines agrégées générées au cours du stress thermique
129

Agrégation et extraction des connaissances dans les réseaux inter-véhicules

ZEKRI, Dorsaf 17 January 2013 (has links) (PDF)
Les travaux réalisés dans cette thèse traitent de la gestion des données dans les réseaux inter-véhiculaires (VANETs). Ces derniers sont constitués d'un ensemble d'objets mobiles qui communiquent entre eux à l'aide de réseaux sans fil de type IEEE 802.11, Bluetooth, ou Ultra Wide Band (UWB). Avec de tels mécanismes de communication, un véhicule peut recevoir des informations de ses voisins proches ou d'autres plus distants, grâce aux techniques de multi-sauts qui exploitent dans ce cas des objets intermédiaires comme relais. De nombreuses informations peuvent être échangées dans le contexte des "VANETs", notamment pour alerter les conducteurs lorsqu'un événement survient (accident, freinage d'urgence, véhicule quittant une place de stationnement et souhaitant en informer les autres, etc.). Au fur et à mesure de leurs déplacements, les véhicules sont ensuite " contaminés " par les informations transmises par d'autres. Dans ce travail, nous voulons exploiter les données de manière sensiblement différente par rapport aux travaux existants. Ces derniers visent en effet à utiliser les données échangées pour produire des alertes aux conducteurs. Une fois ces données utilisées, elles deviennent obsolètes et sont détruites. Dans ce travail, nous cherchons à générer dynamiquement à partir des données collectées par les véhicules au cours de leur trajet, un résumé (ou agrégat) qui fourni des informations aux conducteurs, y compris lorsqu'aucun véhicule communicant ne se trouve pas à proximité. Pour ce faire, nous proposons tout d'abord une structure d'agrégation spatio-temporelle permettant à un véhicule de résumer l'ensemble des événements observés. Ensuite, nous définissons un protocole d'échange des résumés entre véhicules sans l'intermédiaire d'une infrastructure, permettant à un véhicule d'améliorer sa base de connaissances locale par échange avec ses voisins. Enfin, nous définissons nos stratégies d'exploitation de résumé afin d'aider le conducteur dans la prise de décision. Nous avons validé l'ensemble de nos propositions en utilisant le simulateur " VESPA " en l'étendant pour prendre en compte la notion de résumés. Les résultats de simulation montrent que notre approche permet effectivement d'aider les conducteurs à prendre de bonnes décisions, sans avoir besoin de recourir à une infrastructure centralisatrice
130

Réduction des dommages myocardiques par le célécoxib suite à une ischémie transitoire chez le rat

Lada-Moldovan, Laura 11 1900 (has links)
Cette étude a été conçue afin d’évaluer l’effet d’un pré-traitement à long terme au célécoxib sur la taille d’infarctus suite à un infarctus du myocarde. Sachant que le célécoxib est un anti-inflammatoire et que des dommages myocardiques peuvent découler des processus inflammatoires, l’inhibition de l’inflammation devrait hypothétiquement réduire la taille d’un éventuel infarctus. Pour ce faire, un traitement au célécoxib (3 mg/kg/jour i.p.) ou au véhicule (DMSO 50% ; EtOH 15% ; eau distillée) a été administré chroniquement pendant 28 jours à des rats mâles Sprague-Dawley (n=18 par groupe) par pompes osmotiques ALZET. Après avoir été anesthésiés, les animaux ont été sujets à l’occlusion de l’artère coronaire gauche descendante, suivie d’une période de reperfusion de 24 heures. Les résultats démontrent que la taille de l’infarctus des animaux traités au célécoxib est significativement réduite comparativement à celle du groupe témoin (37,5±2,5% versus 48,0±2,6% de la zone à risque, p < 0,05). Par la suite, l’accumulation de neutrophiles indique une hausse de ces leucocytes pour la zone ischémique, sans toutefois discriminer entre les groupes traité et non-traité, qui contenaient aussi les couches sub-endocardique et sous-épicardique. Cependant, aucune différence significative est notée entre les groupes traité et témoin au niveau de l’expression de la prostaglandine E2 plasmatique et du facteur de nécrose tumorale alpha. D’un autre côté, l’apoptose, déterminée par le ratio de Bax/Bcl2 et par un essai TUNEL est significativement réduite pour la couche sub-endocardique de la zone à risque des animaux traités au célécoxib. Enfin, l’agrégation plaquettaire, induite à l’adénosine diphosphate et analysée dans le sang complet, suggère que le célécoxib diminue l’agrégation plaquettaire. Cette étude indique alors qu’un pré-traitement au célécoxib peut réduire la taille d’infarctus par un mécanisme impliquant l’apoptose. / This study was designed to evaluate the effect of long-term pre-treatment with celecoxib, a cyclooxygenase-2 inhibitor, on myocardial infarct size. Since celecoxib is an anti-inflammatory and that myocardial damages can be present in the occurrence of inflammatory processes, inhibition of inflammation should hypothetically reduce the size of an eventual infarct. Celecoxib (3 mg/kg/day i.p.) or vehicle (DMSO 50%; EtOH 15%; distilled water) was administered chronically to male Sprague-Dawley rats (n=18 per group) through ALZET osmotic pumps for 28 days. Under anaesthesia, the animals were then subjected to left anterior descending coronary artery occlusion for 40 minutes, followed by 24-hour reperfusion. The results show that myocardial infarct size in celecoxib-treated rats was significantly reduced compared to the control group (37.5±2.5% versus 48.0±2.6% of the area at risk, p < 0.05). Accumulation of neutrophils, estimated by myeloperoxidase levels, indicated an increase in the ischemic area without any significant difference between groups. No significant difference was observed between the treated and vehicle groups in terms of plasma prostaglandin E2 and tumour necrosis factor-alpha. Apoptosis, evaluated by Bax/Bcl-2 and terminal dUTP nick-end labelled-positive cells, was significantly decreased in the subendocardial layer of the ischemic area in celecoxib-treated rats. Adenosine diphosphate-induced platelet aggregation in whole blood suggested that celecoxib diminished platelet aggregation. This study indicates that pre-treatment with celecoxib can reduce infarct size by a mechanism which may involve apoptosis.

Page generated in 0.0948 seconds