Spelling suggestions: "subject:"robuste.""
151 |
Méthodes de décomposition de domaine robustes pour les problèmes symétriques définis positifsSpillane, Nicole 22 January 2014 (has links) (PDF)
L'objectif de cette thèse est de concevoir des méthodes de décomposition de domaine qui sont robustes même pour les problèmes difficiles auxquels on est confronté lorsqu'on simule des objets industriels ou qui existent dans la nature. Par exemple une difficulté à laquelle est confronté Michelin et que les pneus sont constitués de matériaux avec des lois de comportement très différentes (caoutchouc et acier). Ceci induit un ralentissement de la convergence des méthodes de décomposition de domaine classiques dès que la partition en sous domaines ne tient pas compte des hétérogénéités. Pour trois méthodes de décomposition de domaine (Schwarz Additif, BDD et FETI) nous avons prouvé qu¿en résolvant des problèmes aux valeurs propres généralisés dans chacun des sous domaines on peut identifier automatiquement quels sont les modes responsables de la convergence lente. En d¿autres termes on divise le problème de départ en deux : une partie où on peut montrer que la méthode de décomposition de domaine va converger et une seconde où on ne peut pas. L¿idée finale est d¿appliquer des projections pour résoudre ces deux problèmes indépendemment (c¿est la déflation) : au premier on applique la méthode de décomposition de domaine et sur le second (qu¿on appelle le problème grossier) on utilise un solveur direct qu¿on sait être robuste. Nous garantissons théorétiquement que le solveur à deux niveaux qui résulte de ces choix est robuste. Un autre atout de nos algorithmes est qu¿il peuvent être implémentés en boite noire ce qui veut dire que les matériaux hétérogènes ne sont qu¿un exemple des difficultés qu¿ils peuvent contourner
|
152 |
Les modèles hydrologiques conceptuelssont-ils robustes face à un climat en évolution ? Diagnostic sur un échantillon de bassins versants français et australiensCoron, Laurent 26 March 2013 (has links) (PDF)
Les hydrologues sont questionnés au sujet de l'évolution à moyen et long terme de la ressource en eau. Pour répondre à ces questions, ils ont recours à des modèles hydrologiques. Une quantification des incertitudes associées à leurs projections leur est souvent demandée et pose la question de la robustesse de ces modèles conceptuels, notamment dans le contexte d'un climat en évolution. En effet, l'utilisation d'un modèle dans des conditions différentes de celles où il a été calé repose sur une hypothèse de transférabilité des paramètres, c'est-à-dire la possibilité d'utiliser les paramètres d'un modèle dans des conditions différentes de celles de saconstruction. Nous traitons cette problématique en tentant d'apporter des éléments de réponse aux questions suivantes :* Quel est le niveau de robustesse des modèles hydrologiques conceptuels face à des conditions climatiques variables ?* Quelles sont les causes des situations de manque de robustesse et y a-t-il des façons de s'en prémunir ?Nous y répondons à travers l'étude des performances de modèles conceptuels lors de nombreux tests de transfert temporel de leurs paramètres. Les résultats montrent des corrélations entre les problèmes de robustesse et les écarts de conditions climatiques entre les périodes de calage et de validation des modèles. Des situations de biais systématiques corrélés à des changements de température de l'air ressortent en particulier de ces analyses. Une hétérogénéité existe cependant sur notre échantillon, les variables climatiques ou le type d'erreurs associées aux problèmes détectés pouvant varier d'un bassin à un autre.L'étude des biais de simulation sur les bassins où les modèles ne sont pas robustes montre des alternances de phases de sous-estimation et surestimation des débits, le biais sur le module décennal pouvant atteindre 20%. Nos travaux révèlent que des comportements très similaires sont obtenus pour diverses périodes et méthodes de calage. Pour les modèles conceptuels utilisés dans ces travaux, les problèmes de robustesse détectés ne résultent pas simplement de quelques "mauvais" calages conduisant à la sélection de paramètres inadaptés pour reproduire le comportement du bassin considéré. Ils semblent plutôt découler de difficultés générales de ces outils de modélisation à reproduire convenablement les bilans moyens de façon simultanée sur différentes périodes.Ces travaux ouvrent des pistes de réflexion sur la capacité insuffisante de certains modèles hydrologiques conceptuels à reproduire des dynamiques basse fréquence et sur le rôle des erreurs d'estimation des forçages, notamment les variations temporelles de l'évapotranspiration, dans les situations de modélisation incorrecte.
|
153 |
Approche multiniveau et ordonnnancement d'activités dans un contexte de production à la commandeHernandez-Silva, Jose Fernando 25 January 2008 (has links) (PDF)
Cette thèse se situe dans le cadre de la planification de la production à moyen et court terme dans un environnement de production à la commande et s'intéresse plus particulièrement à une problématique d'ordonnancement de tâches. Elle propose une approche décisionnelle à deux niveaux permettant conjointement l'ajustement charge-capacité des ressources et l'ordonnancement des opérations appartenant à un ensemble d'Ordres de Fabrication (OF). Le niveau supérieur (macro-ordonnancement) positionne les OF sur un horizon moyen-terme discrétisé en périodes et aide le décideur à élaborer une planification agrégée optimisée compte tenu de la politique de gestion retenue (heures supplémentaires, sous-traitance, retards, etc.). Ce niveau est modélisé par un programme linéaire en variables mixtes. Des mécanismes d'agrégation sont proposés. Ils permettent d'associer au niveau supérieur des données agrégées (par macro-périodes) obtenues à partir des données détaillées (définies sur le temps continu). L'étude s'intéresse également à des extensions du modèle de macro-ordonnancement dans le cas de la prise en compte de différents types de leviers décisionnels, de la prise en compte de ressources alternatives,... Le niveau inférieur (ordonnancement) positionne finement (en temps continu, horizon court-terme) les opérations sur les ressources pouvant être utilisées. Il est chargé de "suivre" le macro-ordonnancement ayant optimisé le positionnement grossier des OF. Afin d'intégrer les deux niveaux décisionnels, différents mécanismes de "guidage" sont proposés. Ces mécanismes permettent de désagréger les décisions prises au niveau supérieur. Ces mécanismes permettent l'utilisation de logiciel d'ordonnancement standard au niveau inférieur. Des expérimentations numériques sont effectuées afin d'étudier les performances de la structure multiniveau. Ces expérimentations permettent d'apprécier le comportement de la structure décisionnelle face à différents grandeurs d'éléments c aractéristiques de l'approche : pas de discrétisation, mécanismes de guidage, taux de contraintes,...
|
154 |
Caractérisation de la sûreté de fonctionnement de systèmes à base d'intergicielMarsden, Eric 27 February 2004 (has links) (PDF)
Nous proposons une méthodologie pour l'analyse de la sûreté de fonctionnement d'un middleware, ou intergiciel, et caractériser son comportement en présence de fautes. Notre méthode est basée sur une analyse structurelle des intergiciels de communication, sur l'élaboration d'un modèle de fautes, une classification des modes de défaillance, et le développement d'un ensemble de techniques d'injection de faute adaptées à l'intergiciel. Nous avons validé notre approche en menant des campagnes d'injection de faute ciblant plusieurs implantations de la norme CORBA, et obtenu des mesures quantitatives de la robustesse des différents candidats testés. Nos travaux permettent à des intégrateurs de systèmes répartis critiques d'obtenir des assurances sur la robustesse des composants intergiciels qu'ils placent au coeur de leurs systèmes, et aux développeurs d'intergiciel d'obtenir des informations sur des points faibles de leurs produits.
|
155 |
Coordination et robustesse des systèmes dynamiques multi-agentsMartin, Samuel 28 November 2012 (has links) (PDF)
Nous nous intéressons à l'étude de la dynamique des réseaux composés d'une multitude d'agents. Les motivations de ce travail trouvent leurs sources dans de nombreux domaines et notamment la biologie avec l'étude de l'émergence de comportements collectifs cohérents chez les animaux (vol en formation d'oiseaux migrateurs). Considérons un certain nombre d'agents (animaux) dont le comportement dynamique individuel peut être modélisé par une équation différentielle. Les agents communiquent : les liens sont représentés sous la forme d'un graphe dont les sommets sont les agents du système. Chaque agent a la connaissance de l'état des agents auxquels il est connecté et ajuste sa dynamique à l'aide de cette information. Des comportements collectifs peuvent alors émerger comme par exemple le phénomène de flocking (tous les agents se déplacent dans la même direction). Plusieurs modèles d'interaction ont été proposés, les plus connus étant le modèle de Viscek (1995) ou le modèle de Cucker-Smale (2007). L'étude de ces modèles repose généralement sur des méthodes d'analyse de stabilité des systèmes dynamiques ou des systèmes hybrides, lorsque le graphe de communication évolue dans le temps. Nous souhaitons dans cette thèse évaluer la robustesse de l'émergence de ces comportements collectifs en étudiant l'influence de divers facteurs: paramètres du modèle, topologie du graphe, nombre d'agents, présences de perturbations. Nous nous intéresserons notamment au phénomène de scission du groupe d'agents en plusieurs groupes d'agents coordonnés.
|
156 |
De l'ordonnancement déterministe à l'ordannancement distribué sous incertitudesOurari, Samia 28 January 2011 (has links) (PDF)
Ce travail présente l'étude de deux types de problèmes d'ordonnancement. Le premier concerne la résolution centralisée et exacte d'un problème à une machine, le second, la résolution distribuée et coopérative d'un problème job shop où chaque machine est assimilée à un acteur possédant sa propre autonomie décisionnelle. Pour ces deux problèmes, des conditions de dominance sont utilisées, dans le premier cas, dans le but de limiter la complexité algorithmique liée à la recherche de solutions admissibles ou optimales, dans le deuxième cas, pour accroître la capacité de chaque acteur à résister aux incertitudes liées aux fluctuations de son environnement. Dans un premier temps, un théorème proposé dans les années quatre-vingt est rappelé, qui, considérant le problème à une machine, permet de caractériser un ensemble de solutions dominantes. Sur la base de ce théorème, nous proposons ensuite de nouvelles conditions analytiques et numériques de dominance permettant de restreindre encore davantage l'ensemble des solutions dominantes. En exploitant ces résultats, des formulations mathématiques originales et efficaces sont présentées, sous forme de programmes linéaires en nombres entiers, pour la modélisation et la résolution du problème à une machine en s'intéressant tour à tour au critère de minimisation du plus grand retard algébrique, puis à celui de minimisation du nombre de travaux en retard. Dans un deuxième temps, nous étudions le problème d'ordonnancement job shop dans un environnement multi-acteur, chaque acteur gérant l'activité d'une machine. Tenant compte de l'autonomie de décision et des objectifs propres de chacun, l'ordonnancement est envisagé sous la forme d'une fonction distribuée où la solution globale résulte d'une coopération entre les différents acteurs, cette solution pouvant évoluer dans le temps au fur-et-à-mesure des prises de décision locales. Ainsi, chaque acteur construisant localement sa propre organisation et n' n'ayant qu'une connaissance part ielle et incertaine de l'organisation des autres, nous proposons que les organisations locales soient construites de façon robuste. Pour cela nous montrons comment, à l'aide des résultats de dominance, maintenir au niveau de chaque acteur un ensemble dominant de solutions ayant une performance au pire bornée. Une nouvelle approche d'ordonnancement est ensuite proposée où les acteurs négocient deux à deux, de façon distribuée, de façon à converger progressivement vers des décisions assurant un compromis satisfaisant entre l'optimisation des objectifs locaux et des objectifs globaux.
|
157 |
Méthodologie de prédiction du niveau de robustesse d'une structure de protection ESD à l'aide de la simulation TCADSalamero, Christophe 12 December 2005 (has links) (PDF)
Les travaux de cette thèse ont consisté à développer une méthodologie permettant de prédire, à l'aide d'un outil de simulation physique, le niveau de robustesse d'une structure de protection ESD réduisant ainsi le nombre d'itérations silicium. Cette méthode ne peut être appliquée que si un calibrage minutieux de la simulation est préalablement réalisé. L'originalité de notre méthodologie repose sur le fait que la simulation ne sera réalisée que dans le domaine de validité en température des modèles physiques utilisés (c'est-à-dire pour des températures inférieures à 600K). Plutôt que d'utiliser directement la valeur de la température comme critère de défaillance du composant, notre méthode se base sur des paramètres physiques dépendants de la température. Ces derniers sont le taux d'ionisation par impact (Gi) et celui de Schokley Read Hall (RSRH) dont l'extrapolation de leur évolution respective permet de prédire le niveau de robustesse ESD du composant. La méthode a été validée pour différents dispositifs ESD réalisés dans deux technologies de puissance intelligente (Smart Power : 0.35mm et 0.25mm) différentes. La méthodologie développée durant cette thèse procure donc le double avantage de prédire des niveaux de robustesse ESD précis (c'est-à-dire proches des valeurs mesurées) avec des temps de simulation considérablement réduits en comparaison avec ceux que consommeraient d'autres méthodes proposées dans la littérature.
|
158 |
Optimisation pour la configuration robuste de systèmes de production de biens et de servicesAubry, Alexis 16 October 2007 (has links) (PDF)
Les travaux présentés dans ce mémoire apportent une contribution à la configuration des systèmes de production en contexte incertain. Les différents outils permettant d'appréhender l'incertain en optimisation sont d'abord présentés. Nous insistons plus particulièrement sur la notion de robustesse à travers l'approche utilisée dans le cadre de nos travaux. Nous présentons ensuite deux applications : la configuration d'un atelier de machines partiellement multifonctions soumis à des incertitudes sur la demande et la configuration d'un réseau de distribution d'électricité soumis à des incertitudes sur les caractéristiques de puissance. Pour chaque application, nous identifions les perturbations prises en compte ainsi que les performances attendues en présence de ces perturbations. Nous proposons ensuite un critère de robustesse en adéquation avec cette problématique. Enfin des méthodes de résolution sont proposées pour appréhender les différents problèmes mis en évidence par ce critère.
|
159 |
Planification des essais accélérés : optimisation, robustesse et analyseFatemi, Seyyedeh Zohreh 20 December 2012 (has links) (PDF)
La qualification d'un produit, lors des phases de développement, est une étape importante dans un projet qui vérifie que les performances et la fiabilité atteignent les objectifs. Les essais de qualification sont souvent couteux en temps et en nombre de produits testés. Les essais accélérés consistent à soumettre des unités à des niveaux de stress plus élevés qu'en condition d'exploitation afin de réduire le temps d'apparition des défaillances. Ils permettent de construire plus rapidement la fonction de fiabilité à partir d'un modèle appropriée reliant durée de vie et stress. De plus, un plan d'essai doit être construit, précisant les paramètres du plan (niveaux de stress, allocation de l'échantillon) pour trouver le meilleur compromis entre le coût d'essai et la qualité d'estimation. L'objectif de la thèse a été de définir une méthodologie de construction de plans d'essai accéléré optimaux et robustes. Nous avons donc développé un cadre général basé sur la minimisation du coût global et une approche bayésienne. Les distributions a priori, issues de la connaissance des paramètres de fiabilité et du modèle d'accélération, sont utilisées dans l'inférence bayésienne et dans une simulation de Monte Carlo d'exploration des fiabilités possibles. Le plan optimal et robuste est obtenu à partir de méthodes d'optimisation (Surface de réponse, Algorithmes génétiques). Enfin, une méthodologie de suivi des essais est développée en observant la pertinence des résultats par rapport aux informations a priori à partir d'un facteur de similitude. Il permet de vérifier si la décision quant à la qualification peut être prise plus rapidement, ou d'optimiser le plan en cours de réalisation.
|
160 |
Robustesse par conception de circuits implantés sur FPGA SRAM et validation par injection de fautesBen jrad, Mohamed 01 July 2013 (has links) (PDF)
Cette thèse s'intéresse en premier lieu à l'évaluation des effets fonctionnels des erreurs survenant dans la mémoire SRAM de configuration de certains FPGAs. La famille Virtex II Pro de Xilinx est utilisée comme premier cas pratique d'expérimentation. Des expérimentations sous faisceau laser nous ont permis d'avoir une bonne vue d'ensemble sur les motifs d'erreurs réalistes qui sont obtenus par des sources de perturbations réelles. Une méthodologie adaptée d'injection de fautes a donc été définie pour permettre une meilleure évaluation, en phase de conception, de la robustesse d'un circuit implanté sur ce type de technologie. Cette méthodologie est basée sur de la reconfiguration dynamique. Le même type d'approche a ensuite été évalué sur plusieurs cibles technologiques, ce qui a nécessité le développement de plusieurs environnements d'injection de fautes. L'étude a pour la première fois inclus la famille AT40K de ATMEL, qui permet un type de reconfiguration unique et efficace. Le second type de contribution concerne l'augmentation à faible coût de la robustesse de circuits implantés sur des plateformes FPGA SRAM. Nous proposons une approche de protection sélective exploitant les ressources du FPGA inutilisées par l'application. L'approche a été automatisée sur plusieurs cibles technologiques (Xilinx, Altera) et l'efficacité est analysée en utilisant les méthodes d'injection de fautes précédemment développées.
|
Page generated in 0.0466 seconds