• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 272
  • 87
  • 31
  • 1
  • 1
  • Tagged with
  • 391
  • 190
  • 102
  • 69
  • 49
  • 48
  • 47
  • 47
  • 46
  • 41
  • 38
  • 37
  • 37
  • 34
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Couplages originaux entre Surfactants et Cristaux Liquides Thermotropes : <br />Microémulsions inverses et émulsions directes

Toquer, Guillaume 06 November 2006 (has links) (PDF)
Cette thèse décrit deux études expérimentales distinctes sur des couplages originaux entre un cristal liquide et des surfactants.<br />La première étude porte sur l'organisation de systèmes lyotropes (surfactants et eau) dans un solvant thermotrope anisotrope (cristal liquide). L'existence d'une phase baptisée « nématique transparente » dans un tel système mixte thermotrope-lyotrope de type microémulsion a été en effet récemment débattue. Des expériences de diffusion dynamique de lumière, au voisinage de la transition isotrope-nématique, laissait supposer l'apparition d'une phase intermédiaire, résultant de la compétition entre l'apparition d'un ordre nématique dans le solvant et des effets d'ancrages sur les agrégats.<br />Nous avons caractérisé, dans un premier temps, par diffusion de rayonnement X et neutrons, la morphologie et les interactions d'agrégats, composés de bromure de didodecyldimethylammonium (DDAB) et d'eau, dans le cristal liquide 4-n-pentyl-4'-cyanobiphenyl (5CB) en phase isotrope. L'étude de l'évolution des diagrammes de phases couplée à des expériences de diffusion (X, Lumière et neutrons) a permis de montrer que l'ajout de cosurfactants permettait de faire varier continûment la taille des nanoagrégats. L'ensemble de nos données expérimentales s'explique bien par la présence d'interactions fortes de Van der Waals entre micelles, ce qui justifie en particulier l'absence de transition microémulsion/ lamellaire gonflée dans ce système. L'analyse des facteurs de structure a permis par ailleurs de mettre en évidence une seconde interaction attractive entre micelle, causée par les fluctuations paranématiques du cristal liquide, intervenant essentiellement à l'approche de la transition isotrope-nématique du cristal liquide. Nous discutons de cette nouvelle interaction à la lumière des résultats de nos expériences de diffusion.<br />La deuxième étude porte sur les émulsions directes eau-cristal liquide en présence de surfactants amphotropes que nous avons synthétisés et caractérisés par RMN. La formulation de ces surfactants visait à renforcer leur localisation exclusive à l'interface eau-cristal liquide. Les émulsions obtenues montrent la formation spectaculaire de gouttes allongées cylindriques de type filaments. Les propriétés statiques et dynamiques de ces objets ont été explorées et l'origine de cette instabilité est explicitée. La longueur des microtubes est modifiable par des gradients de concentration ou des variations de température ce qui nous a permis de discuter du mécanisme régissant leur morphologie.
192

Méthodes statistiques pour l'évaluation du risque alimentaire

Tressou, Jessica 09 December 2005 (has links) (PDF)
Les aliments peuvent être contaminés par certaines substances chimiques, qui, lorsqu'elles sont ingérées à des doses trop importantes, peuvent engendrer des problèmes de santé. Notre but est d'évaluer la probabilité que l'exposition au contaminant dépasse durablement une dose tolérable par l'organisme que nous appelons risque. La modélisation de la queue de distribution par des lois extrêmes permet de quantifier un risque très faible. Dans les autres cas, l'estimateur empirique du risque s'écrit comme une U-statistique généralisée, ce qui permet d'en dériver les propriétés asymptotiques. Des développements statistiques permettent d'intégrer à ce modèle la censure des données de contamination. Enfin, un modèle économétrique de décomposition de données ménage en données individuelles nous permet de proposer une nouvelle méthode de quantification du risque de long terme prenant en compte l'accumulation du contaminant et sa lente dégradation par l'organisme.
193

Elaboration de nouveaux inhibiteurs mixtes ECA/ECE pour le traitement de l'hypertension

Gomez, Catherine 08 February 2008 (has links) (PDF)
Les inhibiteurs mixtes de l'ECE et de l'ECA constituent une classe thérapeutique originale qui intervient dans la régulation de l'hémodynamique, en bloquant en amont la production de puissants vasoconstricteurs tels que l'angiotensine II et l'endothéline-1. Ces deux peptides sont générés, respectivement, grâce à l'enzyme de conversion de l'angiotensine II et de l'endothéline-1. En inhibant leur action, les agents thérapeutiques mixtes récents (1970) prennent ainsi une part importante dans le traitement de l'hypertension. Le premier type d'inhibiteurs porte un groupement phosphoré qui se lie au zinc présent dans le site actif de l'enzyme. Ces composés peptidiques, qui possèdent une certaine stéréochimie, ont été synthétisés via des réactions de substitution, de couplage peptidique et d'hydrogénolyse. Les premiers résultats pharmacologiques montrent que seule une activité vis à vis de l'enzyme de conversion de l'angiotensine est décelée. La seconde partie de ce travail présente la synthèse de dérivés cycliques, constitués de cinq ou six chaînons, et qui assurent une chélation au zinc grâce aux groupements carbonyles. Ces molécules sont obtenues en fonctionnalisant l'acide barbiturique ainsi que l'hydantoïne. Grâce à des réactions d'acylation et d'alkylation notamment, un premier composé final a pu être généré mais son inhibition, testée sur l'ECA, est encore faible et nécessite des modulations pour converger vers une activité mixte.
194

Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes

Nembot Simo, Annick Joëlle 01 1900 (has links)
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés. / We propose a method for analysing count or Poisson data based on the procedure called Poisson Regression Interactive Multilevel Modeling (PRIMM) introduced by Christiansen and Morris (1997). The Poisson regression in the PRIMM method has fixed effects only, whereas our model incorporates random effects. As well as Christiansen and Morris (1997), the model studied aims at doing inference based on adequate analytical approximations of posterior distributions of the parameters. This avoids the use of computationally expensive methods such as Markov chain Monte Carlo (MCMC) methods. The approximations are based on the Laplace's method and asymptotic theory. Estimates of Poisson mixed effects regression parameters are obtained through the maximization of their joint posterior density via the Newton-Raphson algorithm. This study also provides the first two posterior moments of the Poisson parameters involved. The posterior distributon of these parameters is approximated by a gamma distribution. Applications to two datasets show that our model can be somehow considered as a generalization of the PRIMM method since it also allows clustered count data. Finally, the model is applied to data involving many types of adverse events recorded by the participants of a drug clinical trial which involved a quadrivalent vaccine containing measles, mumps, rubella and varicella. The Poisson regression incorporates the fixed effect corresponding to the covariate treatment/control as well as a random effect associated with the biological system of the body affected by the adverse events.
195

Conception conjointe de nomenclatures et de la chaîne logistique pour une famille de produits : outils d'optimisation et analyse

Baud-Lavigne, Bertrand 25 October 2012 (has links) (PDF)
Le travail de thèse présenté dans ce mémoire porte sur des méthodes d'optimisation pour la conception conjointe des nomenclatures d'une famille de produits et de sa chaîne logistique. Dans les milieux industriels comme dans les services, le contexte commercial très concurrentiel oblige les entreprises à diversifier leurs offres pour mieux répondre aux demandes de leurs clients. La gestion de cette diversité est alors une problématique centrale : comment proposer une large variété de produits pour satisfaire les besoins des clients tout en maîtrisant les coûts de production, d'inventaire et de logistique ? Les réponses à ce problème relèvent des disciplines habituellement séparées : la conception des produits, la production et la logistique. Si une majorité des approches existantes traitent ces problématiques de façon séquentielle, l'interdisciplinarité apparaît cependant comme un élément essentiel dans la gestion de la diversité. L'objectif de cette thèse est de chercher comment améliorer les interactions entre la conception de familles de produits et l'optimisation des réseaux logistiques en proposant une étape de conception intermédiaire et en développant des outils mathématiques, avec un intérêt particulier porté aux problématiques de développement durable.
196

Etude des Corrélations entre Paramètres Statiques et Dynamiques des CAN en vue d'optimiser leur Flot de Test

Comte, Mariane 11 July 2003 (has links) (PDF)
Le test industriel des Convertisseurs Analogique-Numérique (CAN) consiste à évaluer les paramètres fonctionnels du composant testé afin de les comparer aux limites de tolérance fixées par le cahier des charges. On distingue ainsi les circuits sains des circuits défectueux. Les paramètres caractéristiques d'un CAN sont de deux types : statiques et dynamiques. Chaque type de paramètre nécessite une procédure de test dédiée (en général une analyse statistique et une analyse spectrale respectivement), si bien que le coût du test devient prépondérant dans le prix de revient des CAN, et plus généralement des circuits mixtes analogiques et numériques. Ainsi, réduire le coût du test des CAN est un point critique dans le contexte du test des circuits mixtes. L'objectif de cette thèse est d'étudier la faisabilité d'une procédure de test uniquement basée sur l'analyse spectrale, permettant de tester l'ensemble des performances d'un CAN. A cette fin, nous avons fait une investigation des corrélations qui existent entre les paramètres statiques et dynamiques. L'étude repose sur la simulation d'un modèle d'environnement de test des CAN. Tout d'abord, nous montrons que l'influence de chaque erreur statique sur les paramètres dynamiques est suffisamment significative pour envisager de détecter les erreurs statiques rédhibitoires à travers la mesure des performances dynamiques. Ensuite, nous évaluons l'efficacité statistique de détection des circuits défectueux pour plusieurs flots de test alternatifs reposant seulement sur l'analyse spectrale. Nous avons enfin développé un outil qui permet d'adapter l'évaluation de l'efficacité statistique de chaque flot à un contexte de test réel.
197

Méthode de modélisation et de raffinement pour les systèmes hétérogènes. Illustration avec le langage System C-AMS

Paugnat, Franck 25 October 2012 (has links) (PDF)
Les systèmes sur puces intègrent aujourd'hui sur le même substrat des parties analogiques et des unités de traitement numérique. Tandis que la complexité de ces systèmes s'accroissait, leur temps de mise sur le marché se réduisait. Une conception descendante globale et coordonnée du système est devenue indispensable de façon à tenir compte des interactions entre les parties analogiques et les partis numériques dès le début du développement. Dans le but de répondre à ce besoin, cette thèse expose un processus de raffinement progressif et méthodique des parties analogiques, comparable à ce qui existe pour le raffinement des parties numériques. L'attention a été plus particulièrement portée sur la définition des niveaux analogiques les plus abstraits et à la mise en correspondance des niveaux d'abstraction entre parties analogiques et numériques. La cohérence du raffinement analogique exige de détecter le niveau d'abstraction à partir duquel l'utilisation d'un modèle trop idéalisé conduit à des comportements irréalistes et par conséquent d'identifier l'étape du raffinement à partir de laquelle les limitations et les non linéarités aux conséquences les plus fortes sur le comportement doivent être introduites. Cette étape peut être d'un niveau d'abstraction élevé. Le choix du style de modélisation le mieux adapté à chaque niveau d'abstraction est crucial pour atteindre le meilleur compromis entre vitesse de simulation et précision. Les styles de modélisations possibles à chaque niveau ont été examinés de façon à évaluer leur impact sur la simulation. Les différents modèles de calcul de SystemC-AMS ont été catégorisés dans cet objectif. Les temps de simulation obtenus avec SystemC-AMS ont été comparés avec Matlab Simulink. L'interface entre les modèles issus de l'exploration d'architecture, encore assez abstraits, et les modèles plus fin requis pour l'implémentation, est une question qui reste entière. Une bibliothèque de composants électroniques complexes décrits en SystemC-AMS avec le modèle de calcul le plus précis (modélisation ELN) pourrait être une voie pour réussir une telle interface. Afin d'illustrer ce que pourrait être un élément d'une telle bibliothèque et ainsi démontrer la faisabilité du concept, un modèle d'amplificateur opérationnel a été élaboré de façon à être suffisamment détaillé pour prendre en compte la saturation de la tension de sortie et la vitesse de balayage finie, tout en gardant un niveau d'abstraction suffisamment élevé pour rester indépendant de toute hypothèse sur la structure interne de l'amplificateur ou la technologie à employer.
198

Méthodologie d'estimation des métriques de test appliquée à une nouvelle technique de BIST de convertisseur SIGMA / DELTA

Dubois, Matthieu 23 June 2011 (has links) (PDF)
L'expansion du marché des semi-conducteurs dans tous les secteurs d'activité résulte de la capacité de créer de nouvelles applications grâce à l'intégration de plus en plus de fonctionnalités sur une surface de plus en plus faible. Pour chaque entreprise, la compétitivité dépend du coût de fabrication mais aussi de la fiabilité du produit. Ainsi, la phase de test d'un circuit intégré, et plus particulièrement des circuits analogiques et mixtes, est le facteur prédominant dans les choix d'un compromis entre ces deux critères antagonistes, car son coût est désormais proche du coût de production. Cette tendance contraint les acteurs du marché à mettre en place de nouvelles solutions moins onéreuses. Parmi les recherches dans ce domaine, la conception en vue du test (DfT) consiste à intégrer pendant le développement de la puce, une circuiterie additionnelle susceptible d'en faciliter le test, voire d'effectuer un auto-test (BIST). Mais la sélection d'une de ces techniques nécessite une évaluation de leur capacité de différencier les circuits fonctionnels des circuits défaillants. Ces travaux de recherche introduisent une méthodologie d'estimation de la qualité d'une DfT ou d'un BIST dans le flot de conception de circuits analogiques et mixtes. Basée sur la génération d'un large échantillon prenant en compte l'impact des variations d'un procédé technologique sur les performances et les mesures de test du circuit, cette méthodologie calcule les métriques de test exprimant la capacité de chaque technique de détecter les circuits défaillants sans rejeter des circuits fonctionnels et d'accepter les circuits fonctionnels en rejetant les circuits défaillant. Ensuite, le fonctionnement d'un auto-test numérique adapté aux convertisseurs sigma-delta est présenté ainsi qu'une nouvelle méthode de génération et d'injection du stimulus de test. La qualité de ces techniques d'auto-test est démontrée en utilisant la méthodologie d'estimation des métriques de test. Enfin, un démonstrateur développé sur un circuit programmable démontre la possibilité d'employer une technique d'auto-test dans un système de calibrage intégré.
199

Modélisation et conception d'algorithmes pour la planification automatique du personnel de compagnies aériennes

Draghici, Carmen 29 September 2005 (has links) (PDF)
La planification et la gestion optimale des ressources humaines jouent un rôle important dans la productivité et la compétitivité des entreprises. Dans cette thèse nous nous intéressons à la modélisation et à la résolution de différents problèmes d'optimisation soulevés par la construction de plannings pour les agents qui travaillent dans un contexte aéronautique : la création de vacations, la création de rotation, l'affectation de vacations et de rotations. Pour le problème de construction de vacations, nous proposons une approche de modélisation basée sur le concept de plage horaire et ensuite une méthode heuristique de résolution basée sur l'algorithme FFD (First Fit Decreasing) et sur la génération de colonnes. Le problème de création de rotations est résolu par une méthode de programmation linéaire en variables mixtes. Les problèmes d'affectation de vacations et de rotations sont modélisés comme des problèmes de multi-affectation généralisé. Nous proposons une décomposition temporelle et par qualification et ensuite une transformation du problème d'affectation généralisé en un problème d'affectation simple par relaxation Lagrangienne. Un algorithme ad-hoc est utilisé pour la résolution de chaque problème de base. La plupart des algorithmes élaborés ont été couplés à des bases de données réelles et commercialisés par la société IFR-France.
200

Planification stratégique de trajectoires d'avions

Chaimatanan, Supatcha 21 July 2014 (has links) (PDF)
Afin de pouvoir satisfaire la demande sans cesse croissante du trafic aérien, le futur système de gestion du trafic aérien utilisera le concept d'opérations basées sur les trajectoires (Trajectory Based Operations), qui augmentera la capacité du trafic aérien, en réduisant la charge de travail du contrôleur. Pour ce faire, les tâches de détection et de résolution de conflits seront transférées depuis la phase tactique vers la phase stratégique de la planification. Dans le cadre de ce nouveau paradigme pour le système de gestion du trafic aérien, nous introduisons dans cette thèse une méthodologie qui permet d'aborder ce problème de planification stratégique de trajectoires d'avion à l'échelle d'un pays ou d'un continent. Le but de la méthodologie proposée est de minimiser l'interaction globale entre les trajectoires d'avion, en affectant de nouveaux créneaux de décollage, de nouvelles routes et de nouveaux niveaux de vols aux trajectoires impliquées dans l'interaction. De plus, afin d'améliorer la robustesse du plan stratégique de vols obtenu, nous prenons en compte l'incertitude de la position de l'avion et de son heure d'arrivée à un point donné de la trajectoire de l'avion. Nous proposons une formulation mathématique de ce problème de planification stratégique conduisant à un problème d'optimisation discrète et un problème d'optimisation en variables mixtes, dont la fonction objectif est basée sur le nouveau concept d'interaction. Un algorithme efficace en termes de temps de calcul pour évaluer l'interaction entre des trajectoires d'avion pour des applications de grande taille est introduit et mis en œuvre. Des méthodes de résolution basées sur des algorithmes de type métaheuristique et métaheuristique hybride ont été développées pour résoudre ces problèmes d'optimisation de grande taille. Enfin, la méthodologie globale de planification stratégique de trajectoires d'avion est mise en œuvre et testée sur des données de trafic, prenant en compte des incertitudes, pour l'espace aérien français et l'espace aérien européen, impliquant plus de 30000 vols. Des plans de vols 4D sans conflits et robustes ont pu être produits avec des temps de calcul acceptables dans un contexte opérationnel, ce qui démontre la viabilité de l'approche proposée.

Page generated in 0.0245 seconds