• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 282
  • 109
  • 24
  • 1
  • 1
  • Tagged with
  • 424
  • 205
  • 98
  • 42
  • 39
  • 38
  • 38
  • 37
  • 36
  • 35
  • 32
  • 31
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Project portfolios in dynamic environments : organizing for uncertainty

Petit, Yvan 11 1900 (has links) (PDF)
La gestion de portefeuille de projets fait référence à un ensemble de processus et de pratiques pour gérer un groupe de projets et de programmes afin d'atteindre des objectifs stratégiques d'affaires. Jusqu'à maintenant, l'emphase dans ce domaine a surtout été mise sur la sélection, la priorisation et l'alignement stratégique des projets. La littérature actuelle en gestion de projets fait peu de cas des perturbations potentielles qui peuvent affecter les portefeuilles de projets telles : l'ajout de nouveaux projets, les projets interrompus, les projets retardés, la planification imprécise due aux incertitudes et les perturbations dans l'environnement externe. Cela peut paraître surprenant sachant que la gestion des changements a été étudiée depuis plusieurs années dans les domaines de la gestion du changement dans les projets uniques, en théorie des organisations et en études stratégiques. Cette recherche doctorale propose donc d'étudier la question de recherche suivante : Dans des environnements dynamiques, comment gère-t-on l'incertitude affectant les portefeuilles de projets? Depuis quelques années, les mécanismes de contrôle ont été étudiés dans le contexte de la gestion de projets uniques mais paradoxalement la plupart de ces idées n'ont pas été incluses dans les publications sur la gestion de portefeuilles de projets. Il n'est d'ailleurs pas nécessairement évident que les mêmes techniques soient applicables au niveau du portefeuille ou s'il est suffisant d'instaurer de la flexibilité au niveau des projets pour obtenir de la flexibilité au niveau du portefeuille. Le cadre des capacités dynamiques est utilisé comme cadre conceptuel pour étudier la gestion des portefeuilles de projets dans des environnements dynamiques. Selon le concept des capacités dynamiques, les ressources et les capacités doivent continuellement être réallouées et ré-optimisées afin de s'adapter aux changements de l'environnement. Seulement quelques études empiriques ont été effectuées dans ce domaine et elles ne décrivent que très peu la façon de mettre en place et de maintenir ces capacités dynamiques en pratique. Cette recherche doctorale est basée sur une analyse rétrospective de quatre portefeuilles de projets dans deux firmes. Suffisamment de matériel a pu être recueilli et analysé pour apporter des contributions dans au moins quatre champs : (1) l'ajout de connaissances dans le domaine de la gestion des portefeuilles de projets en explorant comment les portefeuilles sont gérés dans des environnements dynamiques une fois qu'ils sont sélectionnées et approuvés; (2) l'analyse des relations entre les sources d'incertitude dans des environnements dynamiques et les mécanismes mis en place afin de minimiser leur impact et de capitaliser sur les opportunités; (3) une opéralisation des concepts du cadre des capacités dynamiques et (4) des suggestions d'amélioration au cadre des capacités dynamiques. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : gestion de projets, gestion de portefeuilles de projets, incertitude, risques, capacités dynamiques
92

Sur la robustesse des systèmes linéaires incertains : approche quadratique, retour de sortie

Colmenares, William 29 October 1996 (has links) (PDF)
Le travail concerne la commande robuste de systèmes linéaires à modèle incertain et incertitude paramétrique. L'approche développée est l'approche quadratique se basant sur la recherche et l'exploitation de fonctions de Lyapunov quadratiques en l'état. La partie la plus originale des travaux est relative à la commande par retour de sortie, c'est à dire celle basée sur un traitement de l'information contenue dans les mesures disponibles effectivement sur l'état du système et pour le cas d'incertitudes paramétriques polyédriques (cas de matrices intervalle). Une synthèse portant sur la commande robuste par retour d'état dans l'approche quadratique fournit les éléments essentiels pour la formalisation du problème de commande par retour de sortie : incertitudes non structurées et structurées. Le cas des systèmes à incertitude structurée (cas pour lequel demeure encore un besoin de résultats ¿forts¿) est abordé, après un rappel de quelques résultats concernant les cas d'incertitude ¿bornée en norme¿ non structurée pour laquelle existent des conditions nécessaires et suffisantes de stabilité, de nouveaux résultats sont énoncés pour le cas d'incertitude bornée en norme structurée sous la forme de conditions nécessaires et de conditions suffisantes. Il est montré que le cas de l'incertitude polyédrique est un cas extrême d'incertitude bornée en norme structurée. Ce dernier cas présente un degré de complexité important et, pour ce cas, un algorithme itératif pour le calcul d'un retour de sortie dynamique du type observateur de Luenberger est présenté. Le résultat obtenu permet également d'aborder le problème de la détermination du domaine d'incertitude (maximal). Ayant été développés pour les systèmes dynamiques en temps continu, les résultats obtenus sont étendus au cas des systèmes dynamiques en temps discret, résolvant par là même, le problème de la commande robuste avec placement des modes dans une régio n circulaire (problème d'intérêt pratique car permettant la maîtrise de la dynamique du système commandé). Enfin, dans la thèse le problème de la synthèse de commandes robustes avec critères de performance de type H2 (critère quadratique) ou H¿ (cas le plus défavorable) permettant (entre autres) de traiter le problème de rejet de perturbations est abordée.
93

Stratégies des exploitations agropastorales de Thieul [Ferlo-Sénégal] dans un contexte d'incertitudes sur les ressources naturelles productives

Thiam, Ibrahima Uwizeyimana, Laurien. Gafsi, Mohamed. January 2008 (has links)
Reproduction de : Thèse de doctorat : Développement rural : Toulouse, INPT : 2008. / Titre provenant de l'écran-titre. Bibliogr. 225 réf.
94

Évaluation des composantes phénoménologiques de la traînée d'un avion à partir de résultats expérimentaux

Méheut, Michaël Merlen, Alain January 2007 (has links)
Reproduction de : Thèse de doctorat : Mécanique des fluides et Aérodynamique : Lille 1 : 2006. / N° d'ordre (Lille 1) : 3945. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 255-258. Liste des publications et rapports.
95

Méthodes d'analyse des données incomplètes incorporant l'incertitude attribuable aux valeurs manquantes

Bernard, Francis January 2013 (has links)
Lorsqu'on réalise une analyse des données dans le cadre d'une enquête, on est souvent confronté au problème des données manquantes. L'une des solutions les plus fréquemment utilisées est d'avoir recours aux méthodes d'imputation simple. Malheureusement, ces méthodes souffrnt d'un handicap important : les estimations courantes basées sur les valeurs observées et imputées considèrent à tort les valeurs imputées comme des valeurs connues, bien qu'une certaine forme d'incertitude plane au sujet des valeurs à imputer. En particulier, les intervalles de confiance pour les paramètres d'intérêt basés sur les données ainsi complétées n'incorporent pas l'incertitude qui est attribuable aux valeurs manquantes. Les méthodes basées sur le rééchantillonnage et l'imputation multiple -- une généralisation de l'imputation simple -- s'avèrent toutes deux des solutions courantes convenables au problème des données manquantes, du fait qu'elles incorporent cette incertitude. Une alternative consiste à avoir recours à l'imputation multiple à deux niveaux, une généralisation de l'imputation multiple (conventionnelle) qui a été développée dans la thèse que Shen [51] a rédigée en 2000 et qui permet d'exploiter les situations où la nature des valeurs manquantes suggère d'effectuer la procédure d'imputation en deux étapes plutôt qu'en une seule. Nous décrirons ces méthodes d'analyse des données incomplètes qui incorporent l'incertitude attribuable aux valeurs manquantes, nous soulèverons quelques problématiques intéressantes relatives au recours à ces méthodes et nous y proposerons des solutions appropriées. Finalement, nous illustrerons l'application de l'imputation multiple conventionnelle et de l'imputation multiple à deux niveaux au moyen d'exemples simples et concrets.
96

Ordonnancement de tâches parallèles dans les environnements fortement perturbés

Safi, Adel 15 October 2012 (has links) (PDF)
La démocratisation des nouvelles plateformes d'exécution parallèles et distribuées, notamment les grilles de calcul, a engendré l'émergence de nouvelles d'architectures constituées en grande partie par des ressources fournies par des personnes/organisations volontaires. Ces machines ne sont pas disponibles tout le temps. Elles sont sujettes à des perturbations liées aux incertitudes sur les dates de début et de fin de disponibilités. Pour générer des ordonnancements adaptés à ces plateformes, nous cherchons à optimiser, en plus des fonctions objectifs classiques, un nouveau critère qui caractérise l'aptitude de l'ordonnancement à absorber l'effet des perturbations (la stabilité). Nous nous sommes intéressés dans le cadre de ce travail au problème de l'ordonnancement avec contraintes d'indisponibilité de ressources et d'incertitudes sur les dates d'occurrence des évènements. Nous commençons par étudier le cas préliminaire de ce problème où une seule indisponibilité est possible par machine et où l'incertitude porte sur la durée de l'indisponibilité. Nous généralisons ensuite cette étude pour le cas où plusieurs indisponibilités peuvent être envisagées sur les machines et où l'incertitude porte sur les dates d'occurrences des évènements. Pour l'ensemble de ces problèmes, nous utilisons une technique de tampon pour fournir une famille d'ordonnancements qui optimisent simultanément la performance et la stabilité des ordonnancements générés. Une vaste campagne de simulation des heuristiques proposées conduit à la sélection de configurations qui aboutissent à des résultats satisfaisants en terme de compromis. Mots clés : Parallélisme, ordonnancement, incertitude, disponibilité, stabilité
97

Estimation des incertitudes et prévision des risques en qualité de l'air

Garaud, Damien, Garaud, Damien 14 December 2011 (has links) (PDF)
Ce travail porte sur l'estimation des incertitudes et la prévision de risques en qualité de l'air. Il consiste dans un premier temps à construire un ensemble de simulations de la qualité de l'air qui prend en compte toutes les incertitudes liées à la modélisation de la qualité de l'air. Des ensembles de simulations photochimiques à l'échelle continentale ou régionale sont générés automatiquement. Ensuite, les ensembles générés sont calibrés par une méthode d'optimisation combinatoire qui sélectionne un sous-ensemble représentatif de l'incertitude ou performant (fiabilité et résolution) pour des prévisions probabilistes. Ainsi, il est possible d'estimer et de prévoir des champs d'incertitude sur les concentrations d'ozone ou de dioxyde d'azote, ou encore d'améliorer la fiabilité des prévisions de dépassement de seuil. Cette approche est ensuite comparée avec la calibration d'un ensemble Monte Carlo. Ce dernier, moins dispersé, est moins représentatif de l'incertitude. Enfin, on a pu estimer la part des erreurs de mesure, de représentativité et de modélisation de la qualité de l'air
98

Fiabilité et optimisation des structures mécaniques à paramètres incertains : application aux cartes électroniques

Assif, Safa 25 October 2013 (has links) (PDF)
L'objectif principal de cette thèse est l'étude de la fiabilité des cartes électroniques. Ces cartes sont utilisées dans plusieurs domaines, tels que l'industrie automobile, l'aéronautique, les télécommunications, le secteur médical, ..., etc. Elles assurent toutes les fonctions nécessaires au bon fonctionnement d'un système électronique. Les cartes électroniques subissent diverses sollicitations (mécaniques, électriques et thermiques) durant la manipulation et la mise en service. Ces sollicitations sont dues aux chutes, aux vibrations et aux variations de température. Elles peuvent causer la rupture des joints de brasage des composants électroniques. Cette rupture entraine la défaillance du système électronique complet. Les objectifs de ce travail sont: - Développer un modèle numérique pour la simulation du drop-test d'une carte électronique ; - Prédire la durée de vie en fatigue des joints de brasure en tenant compte des incertitudes des diverses variables ; - Développer une méthode d'optimisation fiabiliste pour déterminer la géométrie optimale qui assure un niveau cible de fiabilité d'une carte électronique ; - Application d'une nouvelle méthode hybride d'optimisation pour déterminer la géométrie optimale d'une carte électronique et d'un joint de brasure. Cette thèse a donné lieu à deux publications dans une revue indexée, et deux projets de publication et quatre communications dans des manifestations internationales.
99

Perceptions et réponses du public aux incertitudes associées aux risques de santé publique: Une investigation par méthodes mixtes

Lalande-Markon, Marie-Pierre 28 September 2011 (has links)
Le but principal de la thèse est de mettre en lumière une conceptualisation heuristique de l’incertitude qui permette d’expliquer la manière dont elle est interprétée par les citoyens dans le contexte des risques de santé publique et quelles stratégies de gestion (coping) sont déployées afin d’y faire face. L’emploi de méthodes mixtes est privilégié. La première étude, testant un schème psychométrique sur les données d’une enquête nationale documentant le risque et l’acceptabilité perçue d’un enjeu de santé publique (N= 1517), révèle que l’incertitude perçue se distingue d’autres évaluations cognitives de la menace, telle que la probabilité. Elle est associée à une augmentation de l’inquiétude ressentie seulement lorsque l’impact perçu du risque sur la santé est élevé. La deuxième étude, testant un devis de recherche expérimental auprès de Canadiens du grand public (N= 434), démontre que l’effet sur l’adhérence au message, de différents types d’avertissements à propos d’un risque varie selon les sources d’incertitude communiquées. En particulier, la communication d’ambiguïté (divergence entre experts ou données contradictoires) diminue l’adhérence au message, alors que la communication d’incertitude épistémique (manque de données scientifiques) ne diminue pas l’adhérence au message ni la confiance envers la source. Les dernières études explorent la construction du sens donné à l’incertitude par les citoyens à travers une approche qualitative, avec trois entrevues individuelles et neuf groupes de discussion réalisés auprès d’adultes provenant de villes canadiennes (N= 47). La troisième étude analyse la portion des entrevues mettant l’accent sur les attentes des citoyens à propos de qui devraient être impliqués dans la communication gouvernementale du risque, pourquoi les incertitudes devraient être communiquées, lesquelles sont désirables, et comment et quand les discuter. La quatrième étude emprunte la méthode de la théorie ancrée afin d’élaborer un schéma conceptuel explicatif des réactions à l’incertitude. Celui-ci identifie et met en lien les principaux facteurs d’importance, soit: la source d’incertitude, les caractéristiques situationnelles et individuelles, le contrôle perçu et la confiance envers la source d’information et les gestionnaires du risque. Ces résultats permettent de mieux comprendre et d’anticiper les réactions du public dans la communication et la gestion du risque.
100

Dealing with uncertainty in risk analysis : combining safety and security / Traiter l'incertitude dans l'analyse des risques : combinant sureté et sécurité

Abdo, Houssein 12 December 2017 (has links)
L'analyse des risques est un élément essentiel pour la prise de décision réglementaire liée aux industries à haut risques. Une analyse systématique des risques se compose de trois étapes: (i) l’identification des scénarios indésirables de risque. (ii) l’estimation de la probabilité d'occurrence des scénarios des risques. (iii) le calcul d’effet des conséquences des scénarios de risque identifiés. L'analyse de la vraisemblance et de la gravité s'effectue à l'aide de modèles qui dépendent de plusieurs paramètres d'entrée. Cependant, la fiabilité de l'analyse de risque est limitée grâce à diverses sources d'incertitude. L’incertitude des paramètres, du modèle et d'incomplétude sont les principales sources d'incertitude. L’incertitude de paramètres découle de l'incapacité de définir des valeurs exactes à certains paramètres d'entrée utilisés pour l'analyse de la probabilité et de l’effet. L'incertitude de l’incomplétude provient de ne pas tenir compte de l’ensemble des contributions au risque dans le processus d'identification (certains événements initiateurs sont ignorés). L'incertitude du modèle n'est pas prise en compte dans ce travail. L'INERIS (Institut national de l'environnement industriel et des risques) a développé une approche semi-quantitative d'intervalle pour l’évaluation de la probabilité des risques qui utilise des informations quantitatives si disponibles ou des informations qualitatives, sinon. Cependant, cette approche semi-quantitative d'intervalle présente certains inconvénients en raison de l'incertitude des paramètres. L'information concernant les paramètres d’entrée des modèles d’effets est souvent incomplète, vague, imprécise ou subjective. En outre, certains paramètres peuvent être de nature aléatoire et ont des valeurs différentes. Cela conduit à deux différents types d'incertitude des paramètres. L'incertitude aléatoire dû à la variabilité naturelle. L’autre est l’incertitude épistémique, causée par le manque d'informations, par exemple, une imprécision de mesure. De plus, dans les méthodes d'analyse de risque actuelles, l'étape d'identification est incomplète. Juste les scénarios liés à la sûreté causés par des événements accidentels sont pris en compte durant l’analyse. L'introduction de systèmes connectés et de technologies numériques dans l’Industrie crée de nouvelles menaces de cyber-sécurité qui peuvent entraîner des accidents de sûreté indésirables. Ces événements liés à la cyber-sécurité doivent être pris en compte lors de l'analyse des risques industriels. Cette recherche vise à développer des méthodologies d'analyse d'incertitude pour traiter l'incertitude dans le processus d'analyse de risque de l’INERIS. En d'autres termes, analyser l'incertitude dans l'analyse de la probabilité, l'analyse des effets et l'étape d'identification. Dans ce travail, nous traitons les limites de l'approche semi-quantitative d'intervalle en introduisant la notion de nombres flous au lieu d'intervalles. Les nombres flous sont utilisés pour traiter l'incertitude dans les données d’entrée. Une méthodologie hybride qui traite chaque cause de l'incertitude des paramètres dans l'analyse des effets avec la bonne théorie est développée. La théorie de la probabilité est utilisée pour représenter la variabilité, les nombres flous sont utilisés pour représenter l'imprécision et la théorie d’évidence est utilisée pour représenter l'ignorance, l'incomplétude ou le manque de consensus. Une nouvelle méthodologie d'identification des risques qui considère la sûreté et la sécurité ensemble lors de l'analyse des risques industriels est développée. Cette approche combine Nœud-Papillon (BT), utilisé pour l'analyse de sûreté, avec une nouvelle version étendue de l’arbre d’attaque (AT), introduite pour l'analyse de cybersécurité des systèmes de contrôle industriel. L'utilisation combinée d'AT-BT fournit une représentation exhaustive des scénarios de risque en termes de sûreté et de sécurité. / Risk analysis is a critical part for regulatory decision-making related to high-risk risk industries. A systematic risk analysis is made up of three steps: (i) identifying the undesirable risk scenarios. A risk scenario is characterized by referencing to the potential event with its causes and consequences. (ii) Estimating the likelihood of occurrence of risk scenarios. (iii) Calculating the effect of consequences of the identified risk scenarios. Likelihood and effect analysis are carried out with the help of models that depend on several number of input parameters.However, the trustworthiness of risk analysis is limited when inaccuracies in the results can occur, and are due to various sources of uncertainty. Parameter, model and completeness uncertainties are the main sources of uncertainty. Parameter uncertainty arises from the inability to set exact values for certain input parameters used for likelihood and severity analysis. Completeness uncertainty originates from not considering all contributions to risk in the identification process (some initiating events are ignored). Model uncertainty is not considered in this work.The INERIS (French National Institute for Industrial Environment and Risks) has developed an interval semi-quantitative approach that uses both quantitative information if available or qualitative information if not. However, this interval semi-quantitative approach has some drawbacks due to parameter uncertainty.Information regarding model parameters used for effect analysis is often incomplete, vague, imprecise or subjective. Moreover, some of the parameters may be random in nature and have different values. This leads to two different types of parameter uncertainty that need to be accounted for an accurate risk analysis and effective decision-making. Aleatoric uncertainty arises from randomness due to natural variability resulting from the variation of a value in time. Or epistemic uncertainty caused by the lack of information resulting, for example, from measurement errors, subjectivity expert judgment or incompleteness.Moreover, the identification step is incomplete where only safety related scenarios caused by accidental events are considered. The introduction of connected systems and digital technology in process industries creates new cyber-security threats that can lead to undesirable safety accidents. These cyber-security related events should be considered during industrial risk analysis.This research aims to develop uncertainty analysis methodologies to treat uncertainty in the INERIS risk analysis process. In other words, to analyze uncertainty in likelihood analysis, effect analysis and the identification step.In this work, we propose a fuzzy semi-quantitative approach to deal with parameter uncertainty in the likelihood analysis step. We handle the limits of the interval semi-quantitative approach by introducing the concept of fuzzy numbers instead of intervals. Fuzzy numbers are used to represent subjectivity in expert judgments (qualitative data) and covers uncertainty in the quantitative data if this data exists.A hybrid methodology that treat each cause of parameter uncertainty in effect analysis with the right theory is developed. Probability theory is used to represent variability, fuzzy numbers are used to represent imprecision and evidence theory is used to represent vagueness, incompleteness and the lack of consensus.A new risk identification methodology that considers safety and security together during industrial risk analysis is developed. This approach combines Bow-Tie Analysis (BTA), commonly used for safety analysis, with a new extended version of Attack Tree Analysis (ATA), introduced for security analysis of industrial control systems. The combined use of AT-BT provides an exhaustive representation of risk scenarios in terms of safety and security.

Page generated in 0.0641 seconds