• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 157
  • 46
  • 9
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 218
  • 96
  • 50
  • 31
  • 26
  • 26
  • 25
  • 24
  • 22
  • 21
  • 20
  • 20
  • 20
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Méthodes itératives de construction et d'approximation de points fixes d'opérateurs monotones sur un treillis, analyse sémantique des programmes

Cousot, Patrick 21 March 1978 (has links) (PDF)
Théorèmes de points fixes dans les treillis complets, étude du comportement d'un système dynamique discret, analyse sémantique exacte des programmes et applications. Méthodes constructives d'approximation de points fixes d'opérateurs monotone sur un treillis complet. Analyse sémantique approchée des programmes et applications. Analyse sémantique des procédures recursives.
32

p-variations approchées et erreurs d'arrondis

Cumenge, Pierre-Henri 31 May 2011 (has links) (PDF)
Cette thèse porte sur l'étude des propriétés asymptotiques des p-variations de processus observés de manière discrète dans le temps et entachés d'une erreur d'arrondi en espace. Cette thèse comporte trois parties ; le chapitre 1 est consacré à des rappels sur les semimartingales et les types de convergences étudiés. Dans le chapitre 2, nous étudions les p,q-variations associées à un mouvement brownien bidimensionnel arrondi lorsque les pas de temps et d'espace tendent vers 0. Leur comportement dépend de deux paramètres : le premier est le rapport entre le pas d'arrondi et la racine du pas de temps, les résultats différant radicalement selon que ce paramètre converge ou diverge ; le second est la matrice de covariance associée au mouvement brownien. Lorsque celle-ci est inversible, le comportement des p,q-variations avec arrondi est une généralisation naturelle de celui des p-variations d'un brownien unidimensionnel arrondi. Lorsque par contre la matrice de covariance est dégénérée, les deux composantes du brownien sont proportionnelles et nous obtenons des lois des grands nombres très différentes selon que le rapport entre les deux est ou non rationnel. Le chapitre 3 s'intéresse au comportement asymptotique des p-variations d'une semimartingale arrondie. Nous montrons dans un premier temps des lois des grands nombres pour les p-variations renormalisées ou non renormalisées, ainsi qu'une généralisation à des semimartingales bidimensionnelles continues. Lorsque cela est possible, c'est-à-dire pour des p-variations non-renormalisées, nous prouvons ensuite des théorèmes centraux limites associés, au prix d'hypothèses supplémentaires sur la structure de la semimartingale.
33

Contribution au pronostic industriel : intégration de la confiance à un modèle prédictif neuro-flou.

El Koujok, Mohamed 17 September 2010 (has links) (PDF)
Le pronostic industriel est aujourd'hui reconnu comme un processus clef pour renforcer la sûreté de fonctionnement des matériels tout en réduisant les coûts de maintenance. Cependant, il est dicile de construire un outil de pronostic ecace, prenant en compte l'incertitude inhérente aux processus de défaillance mal appréhendés. L'objet de cette thèse est de proposer un système de pronostic qui, partant des données capteurs, permette de générer les indicateurs utiles à l'optimisation des stratégies de maintenance. Le travail vise en outre à pallier certains problèmes inhérents au manque de connaissance sur les phénomènes de dégradation (quantité de données, expertise dans la construction d'un modèle). Les développements sont fondés sur l'utilisation du système neuro-ou évolutif exTS comme outil permettant de prédire la dégradation d'un bien. Une procédure de sélection automatique des entrées du système prédictif est proposée. L'approche est basée sur le principe de parcimonie. Elle permet de déterminer la structure du réseau neuro-ou en regard d'exigences de performance de prédiction. Une méthode d'estimation a priori de la distribution des erreurs de prédiction du système neuro-ou, ainsi que de propagation de cette erreur pour tout horizon est ensuite proposée et illustrée. Cette contribution permet d'intégrer la conance au processus de pronostic. Enn, les mécanismes d'évaluation de la abilité d'un bien sont adaptés au cas prédictif an de générer les métriques de pronostic permettant d'optimiser les stratégies de maintenance, notamment le temps résiduel avant défaillance (Remaining Useful Life - RUL).
34

Vérification des facteurs d'intensité de contrainte calculés par XFEM

Panetier, Julien 15 May 2009 (has links) (PDF)
La prévision de la tenue des structures fissurées nécessite le calcul du taux de restitution d'énergie ou des facteurs d'intensité de contrainte (FIC) en pointe de fissure. Ces quantités sont généralement évaluées après une analyse éléments finis. Plus récemment l'apparition de la XFEM a permis d'améliorer la description des champs en pointe fissure et de s'affranchir des remaillages successifs après chaque pas de propagation. Néanmoins, la solution ainsi calculée demeure une solution approchée de la solution du problème de référence. Il est donc important de pouvoir évaluer la pertinence de ces calculs. Ces travaux de thèse proposent une technique à même de fournir un encadrement conservatif des FIC évalués par une méthode éléments finis classique et par la XFEM. L'utilisation des techniques d'évaluation d'erreur sur les quantités d'intérêt et de l'erreur en relation de comportement permet dans un premier temps de fournir des bornes de bonne qualité pour les FIC. On propose ensuite une méthode permettant d'évaluer l'erreur globale commise lors d'une analyse XFEM. Elle fait intervenir l'erreur en relation de comportement et des techniques de construction de champs de contrainte adéquates. On est alors en mesure de proposer un encadrement assez fin des FIC pour un coût numérique très raisonnable. L'estimation d'erreur peut finalement être envisagée comme un moyen de déterminer les quantités d'intérêt avec précision.
35

IDENTIFICATION DES PARAMETRES D'UNE LOI ELASTOPLASTIQUE DE PRAGER ET CALCUL DE CHAMPS DE CONTRAINTE DANS DES MATERIAUX HETEROGENES

Latourte, Felix 10 December 2007 (has links) (PDF)
Cette Thèse porte sur l'identification de comportements élastoplastiques ou élastiques hétérogènes à partir de mesures de champs cinématiques au moyen de fonctionnelles de type erreur en relation de comportement (ERC). Ce travail fait suite aux travaux de G. Geymonat, S. Pagano et F. Hild sur l'identification de propriétés élastiques par approche variationnelle. La méthode d'identification est exposée puis appliquée à diverses situations mécaniques, pour des données simulées ou issues d'expérimentations.<br />Les applications présentées concernent l'identification de propriétés élastiques hétérogènes, l'estimation de puissances mécaniques localement fournies lors d'essais de fatigue à grand nombre de cycles, et l'identification de propriétés élastoplastiques hétérogènes.
36

Improvement of the predictive character of test results issued from analytical methods life cycle / Amélioration du caractère prédictif des résultats associés au cycle de vie des méthodes analytiques

Rozet, Eric 29 April 2008 (has links)
Les résultats issus des méthodes analytiques ont un rôle essentiel dans de nombreux domaines suite aux décisions qui sont prises sur leur base telles que la détermination de la qualité des principes actifs, des spécialités pharmaceutiques, des nutriments ou autres échantillons tels que ceux dorigine biologique impliqués dans les études pharmacocinétiques ou de biodisponibilité et bioéquivalence. La fiabilité des résultats analytiques est primordiale dans ce contexte et surtout ils doivent être en accord avec les besoins des utilisateurs finaux. Pour sassurer de la fiabilité des résultats qui seront fournis lors des analyses de routine, la validation des méthodes analytiques est un élément crucial du cycle de vie dune méthode analytique. Par ailleurs, bien souvent une méthode analytique nest pas uniquement employée dans le laboratoire qui la développée et validée, elle est régulièrement transférée vers un autre laboratoire, comme par exemple lors du passage dun laboratoire de recherche et développement vers un laboratoire de contrôle qualité ou, vers ou depuis un sous-traitant. Le transfert de cette méthode doit permettre de garantir la fiabilité des résultats qui seront fournis par ces laboratoires receveurs. Ce sont en effet eux qui utiliseront la méthode analytique en question ultérieurement. Cest dans ce contexte que se situe notre thèse. Son objectif principal est daméliorer la fiabilité des décisions prises au moyen des résultats obtenus par des méthodes analytiques quantitatives lors de ces deux étapes de leur cycle de vie. Pour atteindre cet objectif, nous avons dune part reprécisé lobjectif de toute méthode analytique quantitative et de sa validation. Ensuite, une revue des textes réglementaires de lindustrie pharmaceutique relatifs à la validation des méthodes a été faite, dégageant les erreurs et confusions incluses dans ces documents et en particulier leurs implications pratiques lors de lévaluation de la validité dune méthode. Compte tenu de ces constatations, une nouvelle approche pour évaluer la validité des méthodes analytiques quantitatives a été proposée et détaillées dun point de vue statistique. Elle se base sur lutilisation dune méthodologie statistique utilisant un intervalle de tolérance de type « β-expectation » qui a été transposée en un outil de décision final appelé profil dexactitude. Ce profil permet de garantir quune proportion définie des futurs résultats qui seront fournis par la méthode lors de son utilisation en routine sera bien inclue dans des limites dacceptation fixées a priori en fonction des besoins des utilisateurs. De cette manière lobjectif de la validation est parfaitement cohérant avec celui de toute méthode quantitative : obtenir des résultats exactes. Cette approche de validation a été appliquée avec succès a différents types de méthodes analytiques comme la chromatographie liquide, lélectrophorèse capillaire, la spectrophotométrie UV ou proche infra-rouge, aussi bien pour le dosage danalyte dans des matrices issues de la production de médicaments (formulations pharmaceutiques) que dans des matrices plus complexes comme les fluides biologiques (plasma, urine). Ceci démontre le caractère universel du profil dexactitude pour statuer sur la validité dune méthode. Ensuite, et afin daugmenter lobjectivité de cet outil de décision, nous avons introduit des indexes de désirabilité articulés autour de critères de validation à savoir les indexes de justesse, de fidélité, dintervalle de dosage et dexactitude. Ce dernier constitue un indexe de désirabilité global qui correspond à la moyenne géométrique des trois autres indexes. Ces différents indexes permettent de comparer et classer les profils dexactitude obtenus en phase de validation et ainsi de choisir celui qui correspond le mieux à lobjectif de la méthode, et ce de manière plus objective. Enfin, nous avons pour la première fois démontré le caractère prédictif du profil dexactitude en vérifiant que la proportion de résultats inclue dans les limites dacceptation prédite lors de létape de validation létait effectivement bien lors de lapplication en routine des diverse méthodes de dosage. Contrairement à létape de validation, le transfert de méthode analytique dun laboratoire émetteur qui a validé la méthode vers un laboratoire receveur qui utilisera la méthode en routine, est une étape qui ne bénéficie daucun texte normatif. La seule exigence réglementaire est de documenter le transfert. Dès lors toutes les approches sont possibles. Toutefois celles que lon rencontre le plus souvent ne répondent pas à lobjectif du transfert, à savoir garantir que les résultats obtenus par le laboratoire receveur seront exactes et donc fiables. Dès lors, nous avons développé une approche originale qui permet de statuer de manière appropriée quant à lacceptabilité du transfert. Cette approche basée sur le concept de lerreur totale, utilise également comme méthodologie statistique lintervalle de tolérance et tient compte simultanément de lincertitude sur lestimation de la vraie valeur fournie par le laboratoire émetteur. En effet, un intervalle de tolérance de type « β-expectation » est calculé avec les résultats du receveur puis, comparé à des limites dacceptation autour de la vraie valeur et ajustées en fonction de lincertitude associée à cette valeur de référence. Dautre part, des simulations statistiques ont permis de montrer le gain dans la gestion des risques associés à un transfert à savoir rejeter un transfert acceptable et accepter un transfert qui ne lest pas. Enfin, ladéquation et lapplicabilité de cette nouvelle approche ont été démontrées par le transfert dune méthode dédiée au contrôle de qualité dune formulation pharmaceutique et de deux méthodes bio-analytiques. Les améliorations de la qualité prédictive des méthodologies proposées pour évaluer la validité et le transfert de méthodes analytiques quantitatives permettent ainsi daugmenter la fiabilité des résultats générés par ces méthodes et par conséquent daccroître la confiance dans les décisions critiques qui en découleront.
37

Statistical methods for analysis and correction of high-throughput screening data

Dragiev, Plamen 11 1900 (has links) (PDF)
Durant le criblage à haut débit (High-throughput screening, HTS), la première étape dans la découverte de médicaments, le niveau d'activité de milliers de composés chimiques est mesuré afin d'identifier parmi eux les candidats potentiels pour devenir futurs médicaments (i.e., hits). Un grand nombre de facteurs environnementaux et procéduraux peut affecter négativement le processus de criblage en introduisant des erreurs systématiques dans les mesures obtenues. Les erreurs systématiques ont le potentiel de modifier de manière significative les résultats de la sélection des hits, produisant ainsi un grand nombre de faux positifs et de faux négatifs. Des méthodes de correction des données HTS ont été développées afin de modifier les données reçues du criblage et compenser pour l'effet négatif que les erreurs systématiques ont sur ces données (Heyse 2002, Brideau et al. 2003, Heuer et al. 2005, Kevorkov and Makarenkov 2005, Makarenkov et al. 2006, Malo et al. 2006, Makarenkov et al. 2007). Dans cette thèse, nous évaluons d'abord l'applicabilité de plusieurs méthodes statistiques servant à détecter la présence d'erreurs systématiques dans les données HTS expérimentales, incluant le x2 goodness-of-fit test, le t-test et le test de Kolmogorov-Smirnov précédé par la méthode de Transformation de Fourier. Nous montrons premièrement que la détection d'erreurs systématiques dans les données HTS brutes est réalisable, de même qu'il est également possible de déterminer l'emplacement exact (lignes, colonnes et plateau) des erreurs systématiques de l'essai. Nous recommandons d'utiliser une version spécialisée du t-test pour détecter l'erreur systématique avant la sélection de hits afin de déterminer si une correction d'erreur est nécessaire ou non. Typiquement, les erreurs systématiques affectent seulement quelques lignes ou colonnes, sur certains, mais pas sur tous les plateaux de l'essai. Toutes les méthodes de correction d'erreur existantes ont été conçues pour modifier toutes les données du plateau sur lequel elles sont appliquées et, dans certains cas, même toutes les données de l'essai. Ainsi, lorsqu'elles sont appliquées, les méthodes existantes modifient non seulement les mesures expérimentales biaisées par l'erreur systématique, mais aussi de nombreuses données correctes. Dans ce contexte, nous proposons deux nouvelles méthodes de correction d'erreur systématique performantes qui sont conçues pour modifier seulement des lignes et des colonnes sélectionnées d'un plateau donné, i.e., celles où la présence d'une erreur systématique a été confirmée. Après la correction, les mesures corrigées restent comparables avec les valeurs non modifiées du plateau donné et celles de tout l'essai. Les deux nouvelles méthodes s'appuient sur les résultats d'un test de détection d'erreur pour déterminer quelles lignes et colonnes de chaque plateau de l'essai doivent être corrigées. Une procédure générale pour la correction des données de criblage à haut débit a aussi été suggérée. Les méthodes actuelles de sélection des hits en criblage à haut débit ne permettent généralement pas d'évaluer la fiabilité des résultats obtenus. Dans cette thèse, nous décrivons une méthodologie permettant d'estimer la probabilité de chaque composé chimique d'être un hit dans le cas où l'essai contient plus qu'un seul réplicat. En utilisant la nouvelle méthodologie, nous définissons une nouvelle procédure de sélection de hits basée sur la probabilité qui permet d'estimer un niveau de confiance caractérisant chaque hit. En plus, de nouvelles mesures servant à estimer des taux de changement de faux positifs et de faux négatifs, en fonction du nombre de réplications de l'essai, ont été proposées. En outre, nous étudions la possibilité de définir des modèles statistiques précis pour la prédiction informatique des mesures HTS. Remarquons que le processus de criblage expérimental est très coûteux. Un criblage virtuel, in silico, pourrait mener à une baisse importante de coûts. Nous nous sommes concentrés sur la recherche de relations entre les mesures HTS expérimentales et un groupe de descripteurs chimiques caractérisant les composés chimiques considérés. Nous avons effectué l'analyse de redondance polynomiale (Polynomial Redundancy Analysis) pour prouver l'existence de ces relations. En même temps, nous avons appliqué deux méthodes d'apprentissage machine, réseaux de neurones et arbres de décision, pour tester leur capacité de prédiction des résultats de criblage expérimentaux. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : criblage à haut débit (HTS), modélisation statistique, modélisation prédictive, erreur systématique, méthodes de correction d'erreur, méthodes d'apprentissage automatique
38

Contribution à la caractérisation des performances des problèmes conjoints de détection et d'estimation

Chaumette, Eric 16 December 2004 (has links) (PDF)
Un grand nombre d'applications concrètes (Radar, Sonar, Télécoms ...) requièrent une étape de détection dont l'effet principal est de restreindre l'ensemble des observations disponibles pour l'estimation des paramètres inconnus. Par conséquent, nous établissons l'expression des bornes inférieures de l'Erreur Quadratique Moyenne (EQM) conditionnées par un test d'hypothèse binaire au moyen d'une approche didactique générale. Pour valider l'intérêt de cette démarche, nous montrons également à l'aide d'une application fondamentale, que le problème de la précision de prédiction de l'EQM vraie par une borne inférieure à faible RSB, peut provenir d'une formulation incorrecte de la borne inférieure ne prenant pas en compte la vraie problématique, à savoir les problèmes conjoints de détection-estimation.
39

List decoding of error-correcting codes Winning thesis of the 2002 ACM doctoral dissertation competition /

Guruswami, Venkatesan. January 1900 (has links)
Texte remanié de : PhD : Cambridge, MIT : 2001. / Bibliogr. p. [337]-347. Index.
40

L'erreur judiciaire

Romanet de Valicourt, Héliane. January 1900 (has links)
Eliane de Valicourt a soutenu une thèse en 2001 : "L'erreur du juge. / Titre provenant de l'écran d'accueil. Bibliogr. p. 461-489. Notes bibliogr.

Page generated in 0.0572 seconds