• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 14
  • Tagged with
  • 42
  • 17
  • 14
  • 10
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimation de caractéristiques externes de qualité à partir de mesures d'attributs internes : bilan et perspectives

Ait Mehedine, Lynda January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Contributions à l'estimation aveugle et semi-aveugle et analyse de performance.

Kammoun, Abla 16 April 2010 (has links) (PDF)
Cette thèse s'articule autour de deux thématiques principales. La première traite de l'analyse de performance dans les contextes des systèmes utilisant les séquences d'apprentissage et des systèmes multi-utilisateurs. En nous basant sur une analyse asymptotique, nous donnons des expressions explicites des taux d'erreur binaire et de la probabilité de coupure et nous montrons leur précision même pour des systèmes de dimensions réduites. La deuxième partie de cette thèse traite des méthodes d'estimation aveugle et semi-aveugle. Nos contributions se situent sur deux plans: algorithmique et théorique. Sur le plan algorithmique, nous proposons de nouvelles approches qui permettent de résoudre certains problèmes des méthodes conventionnelles telque la sensibilité à la surestimation de l'ordre pour les méthodes aveugles et la recherche du paramètre de régularisation pour les méthodes semi-aveugles. Sur le plan théorique, nous apportons la démonstration de la quasi-convexité de l'erreur asymptotique quadratique moyenne des systèmes semi-aveugle basé sur la régularisation. Nous menons aussi une étude théorique qui témoigne de l'efficacité de l'utilisation de la norme lp pour robustifier les méthodes aveugles.
3

Modélisation d'un joint viscoplastique pour la filière hydrogène

Peigat, Laurent 19 June 2012 (has links) (PDF)
L'Electrolyse de la Vapeur d'eau à Haute Température (EVHT) est l'un des procédésde production d'hydrogène les plus prometteurs. Dans l'optique d'une économie del'hydrogène produit par EVHT, de nombreux verrous restent à lever. L'un d'entre euxporte sur l'étanchéité. En effet, dans un EVHT, la gestion des gaz est primordiale. Ilfaut pouvoir gérer et prévoir dans le temps le comportement des joints afin d'éviter unedégradation des performances. Or, en EVHT, les températures de fonctionnement sontélevées (classiquement autour de 800 °C), des phénomènes de fluage ou de relaxationapparaissent, le différentiel de dilatation thermique entre les cellules électrochimiques encéramique et les interconnecteurs métalliques doit être pris en compte. Enfin, il convientde maintenir l'étanchéité de l'empilement à faible niveau d'effort pour ne pas risquerd'endommager la partie céramique.L'objet du travail de cette thèse démarre par un constat simple : nous ne disposons pasd'outils de prédimensionnement des joints à haute température permettant de prévoirun débit de fuite. Dès lors que l'on est amené à changer un paramètre de fonctionnement,comme la température, la pression, la stratégie de chargement, la géométrie ou la naturedu joint, une nouvelle expérience doit être menée.A partir d'essais d'étanchéité et de simulations numériques aux éléments finis, un modèleoriginal est proposé. Ce modèle qui a été validé en fonction de différents paramètresexpérimentaux permet d'estimer le débit de fuite associé à un joint en Fecralloy (Fe-CrAl) selon sa forme, ses conditions de serrage et du temps de maintien. Offrant ainsila possibilité de concevoir à moindre coût des joints spécifiques pour l'application visée.
4

Une méthode d'optimisation hybride pour une évaluation robuste de requêtes / A Hybrid Method to Robust Query Processing

Moumen, Chiraz 29 May 2017 (has links)
La qualité d'un plan d'exécution engendré par un optimiseur de requêtes est fortement dépendante de la qualité des estimations produites par le modèle de coûts. Malheureusement, ces estimations sont souvent imprécises. De nombreux travaux ont été menés pour améliorer la précision des estimations. Cependant, obtenir des estimations précises reste très difficile car ceci nécessite une connaissance préalable et détaillée des propriétés des données et des caractéristiques de l'environnement d'exécution. Motivé par ce problème, deux approches principales de méthodes d'optimisation ont été proposées. Une première approche s'appuie sur des valeurs singulières d'estimations pour choisir un plan d'exécution optimal. A l'exécution, des statistiques sont collectées et comparées à celles estimées. En cas d'erreur d'estimation, une ré-optimisation est déclenchée pour le reste du plan. A chaque invocation, l'optimiseur associe des valeurs spécifiques aux paramètres nécessaires aux calculs des coûts. Cette approche peut ainsi induire plusieurs ré-optimisations d'un plan, engendrant ainsi de mauvaises performances. Dans l'objectif d'éviter cela, une approche alternative considère la possibilité d'erreurs d'estimation dès la phase d'optimisation. Ceci est modélisé par l'utilisation d'un ensemble de points d'estimations pour chaque paramètre présumé incertain. L'objectif est d'anticiper la réaction à une sous-optimalité éventuelle d'un plan d'exécution. Les méthodes dans cette approche cherchent à générer des plans robustes dans le sens où ils sont capables de fournir des performances acceptables et stables pour plusieurs conditions d'exécution. Ces méthodes supposent souvent qu'il est possible de trouver un plan robuste pour l'ensemble de points d'estimations considéré. Cette hypothèse reste injustifiée, notamment lorsque cet ensemble est important. De plus, la majorité de ces méthodes maintiennent sans modification un plan d'exécution jusqu'à la terminaison. Cela peut conduire à de mauvaises performances en cas de violation de la robustesse à l'exécution. Compte tenu de ces constatations, nous proposons dans le cadre de cette thèse une méthode d'optimisation hybride qui vise deux objectifs : la production de plans d'exécution robustes, notamment lorsque l'incertitude des estimations utilisées est importante, et la correction d'une violation de la robustesse pendant l'exécution. Notre méthode s'appuie sur des intervalles d'estimations calculés autour des paramètres incertains, pour produire des plans d'exécution robustes. Ces plans sont ensuite enrichis par des opérateurs dits de contrôle et de décision. Ces opérateurs collectent des statistiques à l'exécution et vérifient la robustesse du plan en cours. Si la robustesse est violée, ces opérateurs sont capables de prendre des décisions de corrections du reste du plan sans avoir besoin de rappeler l'optimiseur. Les résultats de l'évaluation des performances de notre méthode indiquent qu'elle fournit des améliorations significatives dans la robustesse d'évaluation de requêtes. / The quality of an execution plan generated by a query optimizer is highly dependent on the quality of the estimates produced by the cost model. Unfortunately, these estimates are often imprecise. A body of work has been done to improve estimate accuracy. However, obtaining accurate estimates remains very challenging since it requires a prior and detailed knowledge of the data properties and run-time characteristics. Motivated by this issue, two main optimization approaches have been proposed. A first approach relies on single-point estimates to choose an optimal execution plan. At run-time, statistics are collected and compared with estimates. If an estimation error is detected, a re-optimization is triggered for the rest of the plan. At each invocation, the optimizer uses specific values for parameters required for cost calculations. Thus, this approach can induce several plan re-optimizations, resulting in poor performance. In order to avoid this, a second approach considers the possibility of estimation errors at the optimization time. This is modelled by the use of multi-point estimates for each error-prone parameter. The aim is to anticipate the reaction to a possible plan sub-optimality. Methods in this approach seek to generate robust plans, which are able to provide good performance for several run-time conditions. These methods often assume that it is possible to find a robust plan for all expected run-time conditions. This assumption remains unjustified. Moreover, the majority of these methods maintain without modifications an execution plan until the termination. This can lead to poor performance in case of robustness violation at run-time. Based on these findings, we propose in this thesis a hybrid optimization method that aims at two objectives : the production of robust execution plans, particularly when the uncertainty in the used estimates is high, and the correction of a robustness violation during execution. This method makes use of intervals of estimates around error-prone parameters. It produces execution plans that are likely to perform reasonably well over different run-time conditions, so called robust plans. Robust plans are then augmented with what we call check-decide operators. These operators collect statistics at run-time and check the robustness of the current plan. If the robustness is violated, check-decide operators are able to make decisions for plan modifications to correct the robustness violation without a need to recall the optimizer. The results of performance studies of our method indicate that it provides significant improvements in the robustness of query processing.
5

L'impact de l'ambiguïté sur les anticipations subjectives déclarées

Paradis, Manuel 20 April 2018 (has links)
Nous avons réalisé une expérience dans laquelle les participants ont pu exprimer des anticipations subjectives sous forme de probabilité de deuxième et de premier ordre. Les données recueillies lors de l’expérience permettent de calculer pour chacun des participants, à partir des probabilités de premier ordre déclarées une série de probabilités de deuxième ordre estimées. La comparaison des probabilités de deuxième ordre déclarées et estimées, à l’aide d’une fonction de pondération de probabilité, permet de classer les participants en 3 types de comportements concernant la sur-pondération ou la sous-pondération des probabilités de première ordre déclarées par rapport à celles deuxième ordre. Les données recueillies permettent de plus d’observer l’impact de l’ambiguïté sur les anticipations subjectives déclarées et l’hétérogénéité des comportements des participants. Le premier type de comportement pondère correctement les probabilités de deuxième ordre déclarées par rapport à celle que l’on estime. Le deuxième type de comportement est modal : on observe une pondération plus importante des distributions de deuxième ordres déclarées par rapport à celle que l’on estime. Le troisième type de comportement est l’inverse du deuxième type. Les données obtenues lors de l’expérience permettent d’établir que 55% des participants de l’expérience appartiennent au premier type, 23% au deuxième et 21% au troisième.
6

Modélisation d'un joint viscoplastique pour la filière hydrogène / Modelling of a viscoplastic seal for the hydrogen sector

Peigat, Laurent 19 June 2012 (has links)
L'Electrolyse de la Vapeur d'eau à Haute Température (EVHT) est l'un des procédésde production d'hydrogène les plus prometteurs. Dans l'optique d'une économie del'hydrogène produit par EVHT, de nombreux verrous restent à lever. L'un d'entre euxporte sur l'étanchéité. En effet, dans un EVHT, la gestion des gaz est primordiale. Ilfaut pouvoir gérer et prévoir dans le temps le comportement des joints afin d'éviter unedégradation des performances. Or, en EVHT, les températures de fonctionnement sontélevées (classiquement autour de 800 °C), des phénomènes de fluage ou de relaxationapparaissent, le différentiel de dilatation thermique entre les cellules électrochimiques encéramique et les interconnecteurs métalliques doit être pris en compte. Enfin, il convientde maintenir l'étanchéité de l'empilement à faible niveau d'effort pour ne pas risquerd'endommager la partie céramique.L'objet du travail de cette thèse démarre par un constat simple : nous ne disposons pasd'outils de prédimensionnement des joints à haute température permettant de prévoirun débit de fuite. Dès lors que l'on est amené à changer un paramètre de fonctionnement,comme la température, la pression, la stratégie de chargement, la géométrie ou la naturedu joint, une nouvelle expérience doit être menée.A partir d'essais d'étanchéité et de simulations numériques aux éléments finis, un modèleoriginal est proposé. Ce modèle qui a été validé en fonction de différents paramètresexpérimentaux permet d'estimer le débit de fuite associé à un joint en Fecralloy (Fe-CrAl) selon sa forme, ses conditions de serrage et du temps de maintien. Offrant ainsila possibilité de concevoir à moindre coût des joints spécifiques pour l'application visée. / High Temperature Steam Electrolysis (HTSE), is one of the most promising processfor hydrogen production. In a hydrogen economy produced via HTSE, many problemshave to be overcome. One of them is related to sealing. Actually, in a HTSE, gasmanagement is very important. The behavior of the seal has to be predicted in time toavoid a deterioration of the performances. But, in a HTSE, the fuctioning temperaturesare important (typically around 800 °C), creep or relaxation may occur, the differencebetween the thermal expansion of the ceramic cells and the metallic interconnectorsmust be taken into account. Finally, the sealing has to be maintain with low effortsprotect the ceramic.This thesis started from the noticing that we don't have any designing tool for hightemperature seals that may help to foresee a leak rate. Since we have to change anyexperimental parameter, such as the temperature, the pressure, the loading strategy, thegeometry or the material of the seal, another experiment has to be done.From sealing tests and finite element modelisation, an original model is presented.This model that has been validated for different experimental parameters allows toestimate the leak rate of a Fecralloy (FeCrAl) seal depending on its shape, the loadingconditions and tightening time. This may help to design specific low cost seals for thedesired applications.
7

Parameter estimation methods based on binary observations - Application to Micro-Electromechanical Systems (MEMS) / Estimation des paramètres d'un système à partir de données fortement quantifiées, application aux MEMS

Jafaridinani, Kian 09 July 2012 (has links)
Bien que les dimensions caractéristiques des systèmes électroniques aient été réduites aux micro- ou nano-échelles, leur performance reste très sensible à des facteurs extérieurs. Les variations lors du processus de fabrication des microsystèmes et celles dans leurs conditions de fonctionnement (température, humidité, pression) sont la cause habituelle de ces dispersions. Par conséquent, il est important de co-intégrer des routines de self-test ou d'auto-ajustement pour ces micro-dispositifs. La plupart des méthodes d'estimation des paramètres du système existantes sont fondées sur la mise en œuvre de mesures numériques haute résolution de la sortie du système. Leur mise en œuvre nécessite ainsi un long temps de conception et une grande surface de silicium, ce qui augmente le coût de ces micro-dispositifs. Les méthodes d'estimation de paramètres basées sur les observations binaires ont été présentées comme des méthodes d'identification alternatives, nécessitant seulement un Convertisseur Analogique-Numérique (CAN) 1-bit.Dans cette thèse, nous proposons une nouvelle méthode d'identification récursive pour le problème d'estimation des paramètres à partir des observations binaires. Un algorithme d'identification en ligne avec de faibles besoins de stockage et une complexité algorithmique réduite est introduit. Nous prouvons la convergence asymptotique de cette méthode sous certaines hypothèses. Ensuite, nous montrons par des simulations de Monte-Carlo que ces hypothèses ne doivent pas nécessairement être respectées dans la pratique pour obtenir une bonne performance de la méthode. De plus, nous présentons la première application expérimentale de cette méthode dédiée au self-test de MEMS intégrés. La méthode de «Built-In Self-Test» en ligne proposée est très intéressante pour le self-test de capteurs, car elle nécessite des ressources faibles de stockage, un seul CAN 1-bit et un seul CNA 1-bit qui peut être facilement mis en œuvre dans une petite surface de silicium avec une consommation réduite d'énergie. / While the characteristic dimensions of electronic systems scale down to micro- or nano-world, their performance is greatly influenced. Micro-fabrication process or variations of the operating situation such as temperature, humidity or pressure are usual cause of dispersion. Therefore, it seems essential to co-integrate self-testing or self-adjustment routines for these microdevices. For this feature, most existing system parameter estimation methods are based on the implementation of high-resolution digital measurements of the system's output. Thus, long design time and large silicon areas are needed, which increases the cost of the micro-fabricated devices. The parameter estimation problems based on binary outputs can be introduced as alternative self-test identification methods, requiring only a 1-bit Analog-to-Digital Converter (ADC) and a 1-bit Digital-to-Analog Converter (DAC).In this thesis, we propose a novel recursive identification method to the problem of system parameter estimation from binary observations. An online identification algorithm with low-storage requirements and small computational complexity is derived. We prove the asymptotic convergence of this method under some assumptions. We show by Monte Carlo simulations that these assumptions do not necessarily have to be met in practice in order to obtain an appropriate performance of the method. Furthermore, we present the first experimental application of this method dedicated to the self-test of integrated micro-electro-mechanical systems (MEMS). The proposed online Built-In Self-Test method is very amenable to integration for the self-testing of systems relying on resistive sensors and actuators, because it requires low memory storage, only a 1-bit ADC and a 1-bit DAC which can be easily implemented in a small silicon area with minimal energy consumption.
8

Estimation de la dépense énergétique chez des personnes diabétiques de type 2 à l'aide de capteurs "intelligents" / Estimation of energy expenditure in type 2 diabetic patients using a "smart" sensor

Caron, Nathan 06 December 2017 (has links)
L'objectif de cette thèse était de faire un bilan des méthodes et outils validés chez les patients DT2 et de développer une méthode d'estimation de la DE précise et adaptée à ces patients. Après avoir défini les activités quotidiennes les plus couramment réalisées dans une population de patients DT2 (Étude 1), nous nous sommes intéressés aux activités statiques et à la marche. Notre seconde étude a montré que le coût énergétique brut et net lors de la marche est respectivement 8,7 et 14,3 % plus élevé chez les patients DT2 en comparaison à un groupe témoin. Ce résultat mettait en avant la nécessité de valider une méthode d'estimation de la DE adaptée aux spécificités de la population diabétique. Les résultats de notre troisième étude ont démontré la validité de la DE estimée à partir d'un capteur intelligent et d'un algorithme existant pour différentes positions statiques et vitesses de marche chez des sujets DT2 et témoins. Enfin, dans une quatrième étude, trois équations d'estimation de la DE totale ont été développées à partir des données d'accélérations issues de trois capteurs intelligents (bas du dos, hanche et cheville) pour une population de sujets DT2 et témoins. Ces trois équations permettent d'estimer une DE totale lors d'activités statiques et de marches avec une différence moyenne respectivement de 0,009, -0,007 et -0,008 kcal/min pour le bas du dos, la hanche et la cheville en comparaison à celle de référence. Ainsi, ce travail de thèse a permis de valider trois équations d’estimation de la DE totale adaptés à une population de patients DT2, normo-pondérés ou en surpoids et âgés de 35 à 80 ans, basés sur les données d'un capteur intelligent. / The aim of this thesis is to review the methods and tools validated in T2D patients and to developed precise and adapted EE estimation method for these patients. After defining the most common daily activity in T2D patients (Study 1), we are interested, in particular, on static activities and walking. The results of our second study showed that the gross and net metabolic rate were 8.7 % and 14.3 % higher in T2D patients than in control subjects, respectively. These results highlight the need to validate an EE estimation method, adapted to diabetic’s specificities. The results of our third study demonstrated the validity of the activity-related EE estimated with a smart sensor and a validated algorithm during static activities and walking in T2D patients and healthy subjects. However, our results showed a lower accuracy of the estimated EE during walking in T2D patients in comparison with healthy subjects. Finally, in a fourth study, three equations estimating the total EE have been developed with acceleration data from three smart sensors (lower back, hip and ankle) and personal data (body mass index, sex, diabetes) from T2D and healthy subjects. These three equations allow to estimate the total EE during static activities and walking with a mean bias of 0.009, -0.007 et -0.008 kcal/min for the lower back, hip and ankle equation, respectively, in comparison with the reference value. Thus, this thesis enables to validate three suitable equations for the estimation of total EE in population including healthy and T2D patients, normal-weighted and overweighed and aged between 35 and 80 years, based on data from a smart sensor.
9

Comparaisons des méthodes d'analyse des données binaires ou ordinales corrélées. Application à l'étude longitudinale de l'incapacité des personnes âgées

Carrière, Isabelle 26 September 2005 (has links) (PDF)
La modélisation de réponses binaires ou ordinales corrélées est un domaine de développement<br />important en épidémiologie. L'étude longitudinale de l'incapacité des personnes âgées et la<br />recherche des facteurs de risque de la vie en incapacité représente un enjeu crucial de santé<br />publique. Dans ce contexte nous comparons les modèles logistiques marginaux et les modèles<br />à effets aléatoires en prenant comme réponse l'incapacité considérée comme variable binaire<br />afin d'illustrer les aspects suivants : choix de la structure de covariance, importance de<br />données manquantes et des covariables dépendantes du temps, interprétation des résultats. Le<br />modèle à effets aléatoires est utilisé pour construire un score prédictif de l'incapacité issu<br />d'une large analyse des facteurs de risque disponibles dans la cohorte Epidos. Les modèles<br />logistiques ordonnés mixtes sont ensuite décrits et comparés et nous montrons comment ils<br />permettent la recherche d'effets différenciés des facteurs sur les stades d'incapacité.
10

Télémétrie laser sur satellites et combinaison de techniques géodésiques. Contributions aux systèmes de référence terrestres et applications.

Coulot, David 07 July 2005 (has links) (PDF)
La qualité actuelle des techniques de Géodésie Spatiale permet d'estimer des séries temporelles de produits géodésiques tels que les paramètres de rotation et les positions de stations terrestres. Ces nouveaux produits doivent être utilisés dans la matérialisation des Systèmes de Référence Terrestres, en constantes évolution et amélioration. Ils doivent aussi mettre en évidence les phénomènes, globaux ou locaux, régissant la rotation terrestre et les mouvements de la croûte. C'est dans ce contexte riche d'enjeux divers que s'inscrivent ces travaux. Leur but premier a été l'élaboration et l'application d'une méthode d'estimation de séries temporelles de positions de stations et de paramètres de rotation de la Terre par l'analyse de données de télémétrie laser sur satellites. Cette technique est en effet une des clefs de voûte du Repère de Référence Terrestre International (ITRF). En guise de validation de cette méthode, douze ans de données (1993-2004) sur les deux satellites LAGEOS ont été traités et analysés. Si les techniques géodésiques présentent certes des forces individuellement, c'est dans leur combinaison qu'elles montrent réellement toutes leurs potentialités. À ce titre, le Groupe de Recherche en Géodésie Spatiale (GRGS) a mené une expérience de combinaison de cinq techniques géodésiques (SLR/LLR/GPS/DORIS/VLBI) au niveau des observations sur l'année 2002. J'ai activement participé à cette expérience dont le but principal était de démontrer la force d'une telle approche pour la détermination de séries temporelles de coordonnées du pôle et du Temps Universel.

Page generated in 0.0903 seconds