Spelling suggestions: "subject:"ensibilité à"" "subject:"extensibilité à""
91 |
Modélisation de la demande énergétique des bâtiments à l'échelle urbaine : contribution de l'analyse de sensibilité à l'élaboration de modèles flexiblesGarcia Sanchez, David 29 October 2012 (has links) (PDF)
Pour répondre aux enjeux énergétiques et climatiques, une des échelles d'action pertinentes est désormais celle du quartier ou de la ville. Des besoins de connaissance, d'outils d'aide à la décision et d'évaluation à cette échelle se manifestent de plus en plus. Un des volets concerne la modélisation de la demande d'énergie des bâtiments résidentiels, préalable à la mise en place d'actions de rénovation de l'existant ou à la valorisation de sources d'énergie locales. La diversité de situations de terrains, d'objectifs d'acteurs et de contextes de disponibilité de données incitent à rechercher des modèles flexibles, aptes à produire de l'information pour différentes applications, à partir de jeux alternatifs de données d'entrée, combinant des modèles de natures diverses (notamment physiques et statistiques) selon les besoins. Dans cet esprit, le présent travail cherche à explorer le potentiel de méthodes dites ascendantes, s'appuyant sur des modèles développés à l'origine pour la simulation à l'échelle d'un bâtiment isolé, mais extrapolés ici pour le parc de bâtiments d'une zone urbaine sur la base de bâtiments types. Les deux questions clés abordées sont celles de la sélection des bâtiments types et de la reconstitution des données d'entrée pertinentes sur le plan statistique pour la zone étudiée. Des techniques d'analyse de sensibilité, en particulier la méthode des effets élémentaires de Morris, ont été appliquées à un code de calcul thermique de bâtiment (ESP-r). Elles ont mis en évidence une réponse non linéaire du modèle, notamment du fait des interactions entre paramètres et de la dispersion des paramètres d'entrée. Elles ont permis d'identifier les paramètres les plus sensibles et les plus en interaction (concernant les bâtiments eux-mêmes, leur environnement ou leurs habitants), sur lesquels doit être concentré le travail de collecte ou de reconstitution statistique. Un modèle, dénommé MEDUS, de reconstitution de la distribution des besoins de chaleur sur un quartier à partir de trois typologies de bâtiments, a été développé et testé sur le secteur St-Félix à Nantes. Il est alimenté par des données INSEE à l'échelle d'un IRIS. Ses résultats sont analysés, à la fois sous l'angle de la pertinence des typologies choisies et dans une perspective d'application à l'échelle du quartier.
|
92 |
Étude de classes de noyaux adaptées à la simplification et à l'interprétation des modèles d'approximation. Une approche fonctionnelle et probabiliste.Durrande, Nicolas 09 November 2011 (has links) (PDF)
Le thème général de cette thèse est celui de la construction de modèles permettantd'approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l'approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l'on souhaite modéliser une fonction dépendant d'une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l'utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l'analyse de sensibilité globale.
|
93 |
Le modèle PAYSAGRI<br />Expérimentation de la sensibilité au paysage des agriculteurs comme facteur des évolutions du paysage ruralDepigny, Sylvain 14 December 2007 (has links) (PDF)
Le regain d'intérêt de la société pour les paysages ruraux implique une meilleure connaissance des pratiques paysagères des agriculteurs. Le modèle PAYSAGRI propose une représentation originale des évolutions d'un paysage rural sous l'effet des activités agricoles : il<br />suggère l'hypothèse d'une sensibilité au paysage de l'agriculteur comme facteur de l'entretien des couverts végétaux des surfaces agricoles.<br /><br />La parcelle agricole, unité élémentaire choisie du paysage, est définie par un État Fonctionnel Physionomique (EFP), qui renseigne l'agriculteur sur ses potentialités fourragères et paysagères. Chaque système de production agricole est à la fois associé à un objectif de<br />production et à une finalité paysagère, dictée par la sensibilité au paysage de l'agriculteur. Les pratiques de production courante, considérées optimales, modifient les EFP du parcellaire. Chaque année, les pratiques d'entretien permettent de corriger les physionomies des parcelles agricoles inadaptées aux attentes paysagères de l'agriculteur ; elles initient également une modification pluriannuelle de la conduite du système de production agricole, afin de répondre plus justement aux objectifs fixés.<br /><br />Les simulations réalisées testent l'impact paysager de différentes populations d'agriculteurs sur un territoire virtuel comportant vingt exploitations agricoles. Chaque population représente une proportion donnée des deux types d'agriculteurs, respectivement deux sensibilités au paysage opposées. Les différences significatives observées soulignent la pertinence de considérer la<br />sensibilité au paysage des agriculteurs comme un facteur important de la modification des paysages ruraux.
|
94 |
Amélioration de la mesure de la Bande Passante dans un réseau basé sur IPAit Ali, Ahmed 27 November 2007 (has links) (PDF)
Les travaux menés dans cette thèse s'intéressent particulièrement à la mesure de la bande passante disponible qui est un paramètre très important pour le bon fonctionnement de plusieurs applications réseaux et dont la détermination avec précision reste jusqu'à aujourd'hui un défi à relever. Ces travaux visent donc à améliorer les techniques de mesure de ce paramètre en proposant un nouveau modèle déterministe basé sur la technique de la paire de paquets. Ce dernier est implémenté dans un nouvel outil de mesure appelé IGMPS. L'évaluation de performances de cet outil ont montré que ce dernier permet de mesurer la bande passante disponible avec une très grande précision. Par ailleurs, une analyse de sensibilité et un calcul des incertitudes sur les modèles étudiés ont montré que les erreurs dues à l'estampillage des paquets sondes au niveau de l'émetteur et du récepteur sont principalement à l'origine de l'imprécision des mesures fournies par les différents outils de mesure de la bande passante isponible.
|
95 |
Dispersions du comportement de structures vibrantes : analyse et détectionOuisse, Morvan 20 December 2002 (has links) (PDF)
Ce travail porte sur les phénomènes de dispersions du comportement de structures vibrantes et son but est de présenter une alternative aux approches classiques utilisées en analyse de sensibilité. Une méthode est proposée afin de fournir un outil qui permet de savoir quelle partie d' une structure vibrante produit les plus fortes dispersions. Cette approche pourrait permettre, lors d'une phase de projet, de modifier les formes induisant de fortes sensibilités, ou bien de s'assurer que lors du processus de fabrication une attention particulière sera portée sur ces zones. C'est dans cet esprit que le travail présenté ici propose dans un premier temps une mise en évidence du phénomène d'hypersensibilité sur des structures simples, qui sont d'abord des poutres et des plaques couplées semi-infinies puis finies. L' analyse et la caractérisation des phénomènes sont proposées avant l' établissement d' une méthode de localisation des principales sources d'incertitudes d'une structure donnée. Cette méthode est basée sur le concept de fonctionnelle d' écart utilisé en recalage calculs/essais, elle est purement numérique, et sera présentée sur un exemple analytique, avant d'être intégrée à un code de calculs par éléments finis. L'exploitation sur des structures industrielles conduit à la validation expérimentale des résultats.
|
96 |
Modélisation de la dispersion atmosphérique du mercure, du plomb et du cadmium à l'échelle européenne.Roustan, Yelva 12 December 2005 (has links) (PDF)
Le plomb, le mercure et le cadmium sont les métaux lourds identifiés comme les plus préoccupants dans le cadre de la pollution atmosphérique à longue distance. Comprendre et modéliser leur comportement permet la prise de décision efficace pour réduire leur impact sur l'homme et son environnement. Les deux premières parties de cette thèse portent sur la modélisation de ces polluants trace en vue de l'étude d'impact à l'échelle européenne. Le mercure en étant principalement présent sous forme gazeuse et susceptible d'interagir chimiquement se distingue des autres métaux lourds essentiellement portés par les particules fines et considérés comme inertes. La troisième partie de cette thèse présente un développement méthodologique basé sur l'utilisation d'une approche adjointe permettant de quantifier les sensibilités du modèle développé aux différents forçages utilisés mais également d'affiner ceux-ci par modélisation inverse.
|
97 |
Étude de classes de noyaux adaptées à la simplification et à l'interprétation des modèles d'approximation. Une approche fonctionnelle et probabiliste.Durrande, Nicolas 09 November 2001 (has links) (PDF)
Le thème général de cette thèse est celui de la construction de modèles permettant d'approximer une fonction f lorsque la valeur de f(x) est connue pour un certain nombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage, peuvent être abordés suivant deux points de vue : celui de l'approximation dans les espaces de Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens. Lorsque l'on souhaite modéliser une fonction dépendant d'une dizaine de variables, le nombre de points nécessaires pour la construction du modèle devient très important et les modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avons cherché à construire des modèles simplifiés en travaillant sur un objet clef des modèles de krigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l'utilisation de noyaux additifs pour la construction de modèles additifs et la décomposition des noyaux usuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nous proposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVA des modèles associés et à l'analyse de sensibilité globale.
|
98 |
La traversée de l'installation interactive : une expérience perceptuelle du geste interfacéBoisclair, Louise 07 1900 (has links) (PDF)
Cette thèse porte sur l'expérience des dispositifs interactifs en art actuel. Elle examine plus spécifiquement l'effet du geste interfacé sur la perception. Comment les modalités interactives modifient-elles la corporéité, la perception et l'expérience esthétique? Pour examiner cette question, l'installation interactive sert de lieu laboratoire. En privilégiant la méthode phénoménologique pragmatique et la sémiotique peircéenne, la traversée d'installations interactives exemplaires poursuit une approche empirique fondée sur l'expérimentation directe et l'observation participante. La première partie de la thèse amorce la traversée de l'installation interactive. Le chapitre I présente la problématique de l'expérience perceptuelle interactive, son cadre méthodologique et quelques définitions. Le corpus d'analyse comprend quatre installations interactives représentatives des quatre groupes suivants : 1- la sollicitation de la présence ou de la mobilité du corps; 2- le maniement d'objets intermédiaires; 3- la projection du souffle ou de la voix; et 4- la manipulation d'un clavier, d'une manette, d'un bouton, d'un casque, d'un gant ou d'une pédale. Les cas types sont respectivement : 1- Taken de David Rokeby; 2- Cubes à sons/bruits/babils de Catherine Béchard & Sabin Hudon; 3- BrainStorm de Jean Dubois; et 4- Mécanique Générale de Thierry Guibert. Étant donné que l'interactivité sollicite un engagement qui mobilise autrement le corps, la perception et l'action, la thèse examine comment l'investissement d'un dispositif interactif modifie la perception, devenue interactive, et mobilise le schéma corporel de manière inédite. C'est ce que la traversée de l'installation interactive nous permet d'expérimenter, d'observer, de décrire et d'interpréter, si nous voulons saisir les effets sensori-perceptifs et les répercussions sur notre mode de vie et d'apprentissage. À titre d'hypothèse, l'expérience esthétique interactive se démarque par l'impact du geste interfacé sur la perception durant la situation négociée, comparativement à l'état polysensoriel de la situation initiale. Dès son entrée dans le lieu, le participant baigne dans une configuration scénographique qui brouille sa sensorialité. Devant une installation en attente, il cherche comment entrer en contact avec une interface et activer la mise en œuvre. Le geste interfacé, c'est-à-dire un geste du corps relié à une interface d'entrée, actualise une dimension virtuelle sous une forme sensible sur la scène physique et écranique. Un circuit interactif entre geste humain, dispositif interactif et réponse machinique déploie alors graduellement la proposition et, ce faisant, modifie les modalités perceptives. Le participant interprète la proposition, comme un musicien sa partition, jusqu'au moment où il la désinvestit pour diverses raisons. Toutefois son interprétation exécutoire donne lieu à une interprétation réflexive. La deuxième partie de la thèse élabore l'expérience en trois temps des quatre cas types. Dans les chapitres II et III, la thèse présente les expériences première, deuxième et troisième de chaque cas, en écho aux catégories phanéroscopiques du sémioticien Charles Sanders Peirce. L'expérience première a fait émerger un trajet type en trois étapes. À cet effet, le récit à la première personne, utilisé pour rendre compte de l'expérimentation directe, favorise une lecture expérientielle et complète le récit à la troisième personne de l'observation. Par la suite, le chapitre IV établit les points de connexion entre les cas avec l'éclairage de la neurophysiologie, entre autres, pour le double corporel appareillé et la perçaction. La troisième et dernière partie approfondit l'expérience perceptuelle interactive. Le chapitre V, à partir de l'expérience des œuvres, poursuit un questionnement sur le reflet spéculaire ou l'augmentation, le mimétisme et la performance, qui contribuent à l'apprentissage d'un savoir-faire singulier et pluriel. Puis, le chapitre VI effectue une description de l'installation interactive au sens générique, qui débouche sur une définition provisoire. Celle-ci est suivie d'une description au sens expérientiel, qui mène à une deuxième définition pour alors discuter l'efficience esthétique comparativement à l'efficacité générique. En guise de prospective, la conclusion propose une modélisation de la démarche perceptuelle interactive pour le « participant chercheur » devant toute installation interactive ainsi que divers sentiers à défricher par des recherches multidisciplinaires additionnelles, entre autres l'examen du potentiel thérapeutique de certains dispositifs artistiques interactifs et la tenue de récits à la première personne de lecture expérientielle.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : Installation interactive, Dispositif interactif, Interactivité, Perception, Sensorialité, Corps appareillé, Corporéité, Geste interfacé, Mimétisme, Performance, Apprentissage, Expérience esthétique, Savoir-faire, Phénoménologie pragmatique, Récits à la première personne, Lecture expérientielle, Écriture expérientielle, Sémiotique
|
99 |
Indices de Sobol généralisés pour variables dépendantesChastaing, Gaëlle 23 September 2013 (has links) (PDF)
Dans un modèle qui peut s'avérer complexe et fortement non linéaire, les paramètres d'entrée, parfois en très grand nombre, peuvent être à l'origine d'une importante variabilité de la sortie. L'analyse de sensibilité globale est une approche stochastique permettant de repérer les principales sources d'incertitude du modèle, c'est-à-dire d'identifier et de hiérarchiser les variables d'entrée les plus influentes. De cette manière, il est possible de réduire la dimension d'un problème, et de diminuer l'incertitude des entrées. Les indices de Sobol, dont la construction repose sur une décomposition de la variance globale du modèle, sont des mesures très fréquemment utilisées pour atteindre de tels objectifs. Néanmoins, ces indices se basent sur la décomposition fonctionnelle de la sortie, aussi connue sous le nom de décomposition de Hoeffding. Mais cette décomposition n'est unique que si les variables d'entrée sont supposées indépendantes. Dans cette thèse, nous nous intéressons à l'extension des indices de Sobol pour des modèles à variables d'entrée dépendantes. Dans un premier temps, nous proposons une généralisation de la décomposition de Hoeffding au cas où la forme de la distribution des entrées est plus générale qu'une distribution produit. De cette décomposition généralisée aux contraintes d'orthogonalité spécifiques, il en découle la construction d'indices de sensibilité généralisés capable de mesurer la variabilité d'un ou plusieurs facteurs corrélés dans le modèle. Dans un second temps, nous proposons deux méthodes d'estimation de ces indices. La première est adaptée à des modèles à entrées dépendantes par paires. Elle repose sur la résolution numérique d'un système linéaire fonctionnel qui met en jeu des opérateurs de projection. La seconde méthode, qui peut s'appliquer à des modèles beaucoup plus généraux, repose sur la construction récursive d'un système de fonctions qui satisfont les contraintes d'orthogonalité liées à la décomposition généralisée. En parallèle, nous mettons en pratique ces méthodes sur différents cas tests.
|
100 |
Analyse de sensibilité pour des problèmes de commande optimale. Commande optimale stochastique sous contrainte en probabilitéPfeiffer, Laurent 05 November 2013 (has links) (PDF)
Cette thèse est divisée en deux parties. Dans la première partie, nous étudions des problèmes de contrôle optimal déterministes avec contraintes et nous nous intéressons à des questions d'analyse de sensibilité. Le point de vue que nous adoptons est celui de l'optimisation abstraite; les conditions d'optimalité nécessaires et suffisantes du second ordre jouent alors un rôle crucial et sont également étudiées en tant que telles. Dans cette thèse, nous nous intéressons à des solutions fortes. De façon générale, nous employons ce terme générique pour désigner des contrôles localement optimaux pour la norme L1. En renforçant la notion d'optimalité locale utilisée, nous nous attendons à obtenir des résultats plus forts. Deux outils sont utilisés de façon essentielle : une technique de relaxation, qui consiste à utiliser plusieurs contrôles simultanément, ainsi qu'un principe de décomposition, qui est un développement de Taylor au second ordre particulier du lagrangien. Les chapitres 2 et 3 portent sur les conditions d'optimalité nécessaires et suffisantes du second ordre pour des solutions fortes de problèmes avec contraintes pures, mixtes et sur l'état final. Dans le chapitre 4, nous réalisons une analyse de sensibilité pour des problèmes relaxés avec des contraintes sur l'état final. Dans le chapitre 5, nous réalisons une analyse de sensibilité pour un problème de production d'énergie nucléaire. Dans la deuxième partie, nous étudions des problèmes de contrôle optimal stochastique sous contrainte en probabilité. Nous étudions une approche par programmation dynamique, dans laquelle le niveau de probabilité est vu comme une variable d'état supplémentaire. Dans ce cadre, nous montrons que la sensibilité de la fonction valeur par rapport au niveau de probabilité est constante le long des trajectoires optimales. Cette analyse nous permet de développer des méthodes numériques pour des problèmes en temps continu. Ces résultats sont présentés dans le chapitre 6, dans lequel nous étudions également une application à la gestion actif-passif.
|
Page generated in 0.0605 seconds