Spelling suggestions: "subject:"incertitude"" "subject:"incertitudes""
261 |
Effets des incertitudes et de la variabilité spatiale des propriétés des sols et des structures sur le dimensionnement des semelles filantes et des conduites enterréesImanzadeh, Saber 15 February 2013 (has links) (PDF)
Le sol présente une variabilité spatiale des propriétés physiques et mécaniques dont les effets sur des structures légères avec semelles filantes et sur les conduites enterrées ne sont pas bien pris en compte dans leur dimensionnement. Cette variabilité naturelle peut être très importante dans le cas de ces ouvrages car elle induit des tassements différentiels, dont les conséquences peuvent être dommageables : fissures dans les murs, les poutres ou encore des fuites dans les réseaux d'assainissement. La variabilité naturelle du sol et l'incertitude liée à la connaissance imparfaite des propriétés du sol et/ou du béton ou de l'acier de la structure sont les principales sources d'incertitude dans le choix des paramètres de calcul pour le dimensionnement de ces structures. Dans cette thèse, une approche analytique avec les méthodes probabilistes (FOSM et SOSM) et le modèle de Winkler, puis numérique avec le couplage de la méthode des éléments finis avec des approches géostatistiques ont été successivement menées pour modéliser le comportement des semelles filantes et des conduites enterrés lorsque les incertitudes sur les propriétés mécaniques du sol et de la structure sont prises en compte dans leur dimensionnement. Il apparait ainsi, l'importance du comportement longitudinal de ces ouvrages et du poids des incertitudes dans leur dimensionnement.
|
262 |
Evaluation de la Performance des Réglages de Fréquence des Eoliennes à l'Echelle du Système Electrique : Application à un Cas InsulaireWang, Ye 20 November 2012 (has links) (PDF)
L'intégration croissante de la production éolienne ne participant pas au réglage de fréquence induit de nouvelles difficultés de gestion des systèmes électriques. Ces problèmes sont d'autant plus significatifs que le réseau est faible. La présente thèse vise à évaluer la performance et la fiabilité du réglage de fréquence des éoliennes à l'échelle du système électrique. Les études sont appliquées sur un réseau insulaire.D'abord, l'impact d'un fort taux de pénétration de la production éolienne sur l'allocation de la réserve primaire et sur le comportement dynamique du réseau est caractérisé. Il est montré que la participation des éoliennes au réglage de fréquence est techniquement indispensable pour le maintien de la sûreté du système électrique à partir d'un certain taux de pénétration. Deux solutions permettant aux éoliennes de contribuer au réglage de fréquence sont ensuite étudiées par simulations dynamiques. La performance d'une inertie émulée est caractérisée en considérant l'impact du point de fonctionnement initial des éoliennes et des paramètres du contrôleur. La contribution de la réserve éolienne à l'amélioration de la performance dynamique du système est également identifiée.Afin d'évaluer le potentiel et la fiabilité de la réserve éolienne, la dernière partie de ce travail est consacrée aux études statistiques prenant en compte la variabilité et l'incertitude de la prévision de la production. Deux stratégies du placement de réserve sont proposées et comparées. L'impact des erreurs de prévision sur le potentiel de réserve éolienne est également mis en évidence. Enfin l'énergie réglante d'une ferme et la plage de réglage du statisme éolien sont caractérisées
|
263 |
Effet modérateur des dimensions culturelles « aversion à l'incertitude » et « orientation à long terme » sur le « International Technology Acceptance Model »Bégnoche, Mélanie January 2006 (has links) (PDF)
L'objectif principal de ce mémoire est d'évaluer l'effet modérateur de trois dimensions de la culture nationale, selon Hofstede (1980), sur le « International Technology Acceptance Model » (ITAM). Le ITAM est un des modèles du transfert international de technologie. Spécifiquement, il modélise les comportements d'acceptation de la technologie développée à l'étranger. Nous nous sommes intéressés à l'acceptation de la technologie dans un contexte industriel, où la technologie est transférée entre deux entreprises provenant de différentes nations. Afin de valider ce premier objectif, nous avons émis l'hypothèse que certaines relations entre les variables du ITAM seront plus ou moins fortes dépendamment du profil culturel de l'entreprise. Puisque le ITAM n'a été validé qu'aux États-unis et qu'en Chine, le second objectif de cette étude est de valider le ITAM au Québec. Le troisième objectif de cette recherche est de mesurer chacune des dimensions de Hofstede (1980) au Québec, ceci afin de rafraîchir la littérature actuelle. Les données de cette étude ont été recueillies parmi les dirigeants de manufactures québécoises. La méthodologie de Hector Betancourt (1992) a été utilisée, celle-ci permet de faire une étude interculturelle à travers une seule culture. Nous nous sommes servi de deux instruments de mesure afin de mesurer les construits du ITAM et les variables culturelles; respectivement nous avons utilisé le International Technology Acceptance Survey et le Values Survey Index. Les résultats des analyses révèlent que les dimensions aversion à l'incertitude et orientation à long terme ont un effet modérateur entre certaines variables du ITAM. Cependant, aucun effet concernant les dimensions masculinité-féminité n'a pu être mesuré. D'autre part, les résultats ont validé partiellement le modèle ITAM au Québec. Finalement, les données de cette étude ont permis de calculer le score de chacune des dimensions de Hofstede au Québec. Ces scores sont conformes à la littérature actuelle.
Bien que cette étude soit une recherche exploratoire, les résultats de celle-ci apportent des évidences empiriques sur l'existence partielle du modèle ITAM au Québec et de l'effet de la culture sur ce modèle. Les entreprises de technologie qui souhaitent exporter leurs produits technologiques dans d'autres marchés devraient prendre en considération les caractéristiques culturelles de ces derniers. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Marketing international, Marketing entreprise à entreprise, Transfert de technologie, Marketing, Interculturel, Culture nationale.
|
264 |
Programmation bayésienne des bras manipulateursGarcia Ramirez, Ruben 27 May 2003 (has links) (PDF)
Cette thèse porte sur la programmation bayesienne de bras manipulateurséquipés d'un système de vision stéréoscopique. L'implantation d'une tâche de prise et de dépose d'un objet est <br />donnée en exemple pourévaluer l'approche. Cette tâche met en jeu des modèles géométriques <br />du bras, du système de vision stéréoscopique et des objets manipulés. L'incertitude associée aux <br />modèles géométriques, aux capteurs des robots et au système de vision est prise en compte. <br />La méthode de programmation est formelle et systématique. Elle consiste en trois parties : La <br />description où sont définies les variables pertinentes et la distribution de probabilité conjointe. <br />L'inférence qui vise à construire une distribution de probabilité sur les commandes motrices sachant les informations sensorielles, et enfin le choix d'une commande à partir de la distribution <br />précédente. <br />Une nouvelle méthode de programmation de robot dite «inverse» est introduite. Des méthodes de résolutions approchées sont présentées visant à combattre la complexité du calcul liée à <br />cette approche. Une expérimentation qualitative du système de programmation est présentée.
|
265 |
Apport des statistiques spatiales à l'élaboration de critères d'homogénéité et à l'inférence en analyse de textures. Application à la caractérisation de matériaux.Blanc, Rémi 08 June 2007 (has links) (PDF)
Ce mémoire traite de la fiabilité de l'inférence statistique pour des données spatiales se présentant sous la forme d'une image numérique texturée extraite d'une scène plus vaste. Plus particulièrement, nous proposons un cadre permettant d'évaluer le caractère représentatif de l'image observée par rapport à la scène, et de calculer la variance d'estimation de la moyenne et de la variance des niveaux de gris de l'image dans le cas où celle-ci est supposée homogène.<br />La première partie consiste en une formalisation du problème en termes statistiques.<br />Dans une seconde partie, nous présentons deux familles de méthodes paramétriques permettant le calcul de la variance d'estimation, de même que les relations entre ces deux familles. Nous montrons cependant les difficultés liées à leur mise en œuvre dans le contexte applicatif envisagé.<br />La troisième partie est consacrée à l'étude d'une méthode non paramétrique basée sur un sous-échantillonnage par blocs. Elle permet une estimation de la variance d'estimation dont les propriétés sont analysées dans le cadre général de la décomposition de Wold des processus stationnaires 2-D. Cette analyse exhaustive nous permet de proposer des critères objectifs qualifiant l'homogénéité de la moyenne et de la variance d'une texture, propriété nécessaire pour l'inférence statistique.<br />Enfin, dans une dernière partie, ces critères sont appliqués et validés dans un contexte industriel de caractérisation de matériaux composites par analyse d'image.
|
266 |
Représentation et gestion de l'incertitude pour l'actionMorel, Pierre 07 January 2011 (has links) (PDF)
Nos entrées sensorielles, comme nos mouvements, sont entachés d'incertitudes. Pourtant, notre système nerveux central semble être aussi précis que possible compte tenu de ces incertitudes: il les gère de manière optimale, par exemple en pondérant des informations sensorielles redondantes en fonction de leur fiabilité, ou en prenant en compte ses incertitudes motrices lors de la réalisation de mouvements. Si les modalités des combinaisons d'informations redondantes sont bien connues lors de tâches statiques, elles le sont moins en conditions dynamiques, lors de mouvements. La partie expérimentale de cette thèse a permis de confirmer l'existence de mécanismes d'estimation et de contrôle optimaux des mouvements chez l'humain. En effet, nous avons mis en évidence l'intégration optimale d'information visuelle lors de la réalisation de saccades à la lumière: lors de séquences de saccades, le système visuomoteur est capable d'utiliser l'information visuelle pour mettre à jour ses estimations internes de la position de l'œil. Une étude complémentaire des sources de variabilité des saccades suggère un rôle similaire pour la proprioception extra-oculaire. Par une troisième expérience, novatrice, nous avons montré que le toucher est pris en compte en temps réel lors de mouvements de la main en contact avec une surface. Nous avons également inféré une mesure de la variance de l'information tactile. Enfin, à partir des connaissances sur la représentation des variables sensorimotrices dans le système nerveux, nous avons construit plusieurs réseaux de neurones qui implémentent de manière proche de l'optimum statistique la planification et le contrôle de mouvements
|
267 |
Essais en microéconomie appliquéeAgbo, Maxime 05 1900 (has links)
La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles
d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des
agents économiques dans différentes situations. Le premier essai de la thèse se penche
sur la question de l’utilisation des ressources naturelles en situation d’incertitude et
d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions
un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent
pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique
auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi
plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième
essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau
(multi-level marketing).
Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment
with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage
avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation
d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning
et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al
(2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un
impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais
individuellement certains exploitants peuvent consommer plus la ressource en learning
qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types
d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui
a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène
dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation
individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs,
en utilisant les variations absolues et relatives de la consommation suite à un changement
des croyances, il ressort que les exploitants ont tendance à converger vers une décision
commune.
Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping
Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié
iv
comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs
à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche.
Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et
les travaux passés des chercheurs ayant soumis une demande de subvention de recherche.
Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être
financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au
lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement
les chercheurs en les comparant deux à deux.
Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)".
Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises
dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur
peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise.
Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente
des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing,
MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines
critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs
des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est
de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs
ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation
des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui
désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui
viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent
puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà
établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de
question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la
structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre,
le distributeur devra recruter. Les commissions perçues avec le recrutement donnent
un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer
un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une
structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003,
2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet
externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi,
si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes
commissions, les agents peuvent se tourner plus ou moins vers le recrutement. / This thesis includes three essays in applied microeconomics. Using learning and network
effects models, we study agents’ behavior in various environments through three chapters.
The first chapter examines natural resource exploitation under uncertainty with learning
and heterogeneous priors. In the second chapter, we examine the problem of research
Foundation concerned with finding good quality researchers for today and the future.
The third chapter studies the Multi-level marketing organizations.
The first chapter is entitled "Renewable Resource Consumption in a Learning Environment
with Heterogeneous beliefs". This work uses a learning model with heterogeneity
of beliefs to study natural resources consumption under uncertainty. Following Koulovatianos
et al (2009), we distinguish two types of learning process: adaptive learning and
learning. I find that learning decreases the total consumption of the resource in comparison
with adaptive learning. However, individually and under some conditions, some
exploiters could consume more in learning than in adaptive learning. In learning, the
exploiter faces two kinds of incentive to invest in the resource: self-incentive which is
always positive and heterogeneity incentive which may be negative. The effect of learning
on individual consumption depends on the sign and the extent of the heterogeneity
incentive. Using absolute change and relative change of consumption due to a change in
beliefs, we find that the exploiters tend to converge to a common behaviour.
The second chapter is entitled "A perpetual Search for Talent across Overlapping Generations".
We use a dynamic discrete time model with overlapping generations to study
how a research Fund should optimally rank and select which researchers to give a grant.
The optimal decision rule depends on both the perceived quality of researchers based on
past success histories and on age. Between two researchers of equal perceived qualities
the Fund should select the youngest. This work contributes to the understanding of the
bandit problems sometime known to be untractable and pspace-hard. Here, instead of
looking for an index characterization, we propose to rank or eliminate progressively the
researchers by comparing them two by two.
The third chapter is entitled "Paradox about the Multi-Level Marketing". Over the past
50 years, the Multi-level Marketing (MLM) has become an important business strategy.
vi
MLM is a marketing method in which independent distributors of a product get profits
not only from their own sales, but also from recruiting other distributors. According to the
promoters of this organization, the purpose of the business and the will of the distributors
are to sell the product and not to set up a scam. The question is the following: if the
real intention is to sell, why does a distributor recruit other distributors who will become
his competitors? It is well known in classical industrial organization that people avoid
competition as well as possible. Why is it not the case in the MLM organization? We
explain this paradox by the particular economic structure of the MLM. Distributor could
not sell enough if he did not recruit. Recruiting provides a price leading power and allows
to sell more and make more profit (in some respect). Moreover, the MLM is similar to
the multi-sided market structure a la Rochet and Tirole (2003, 2006) and Weyl (2010).
There is network effect between recruitment and selling activity. Thus, the extent of the
paradox can also be explained by the different commissions set by the MLM promoters.
|
268 |
La cohérence conceptuelle d’étudiants collégiaux en mécanique newtonienne et en métrologiePériard, Martin 12 1900 (has links)
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des
questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence
conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place
par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet
que les autres participants. De nombreux couples de questions révèlent un indice de
discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification
de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé
métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas
fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un
questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés
identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les
résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la
mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix
multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont
permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique
des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent
résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement
ancrée. / This thesis evaluates the coherence of the conceptual network demonstrated by college
students in life and applied sciences. This evaluation was based on the analysis of Burt
tables issuing from multiple choice questionnaires, on the creation and careful examination of a novel tool, the matrix of specific discrimination coefficients, which will be described in the main text, and on the qualitative analysis of actual laboratory work of students doing an experimentation. At the completion of this project, four research axis have been
explored. 1) What is the conceptual coherence demonstrated in Newtonian mechanics? 2) Is the mastery of uncertainty quantification related to the development of logical thinking or to mathematical competency? 3) What is the conceptual coherence demonstrated in the
quantification of experimental uncertainty? 4) What are the concrete procedures utilized by students to quantify experimental uncertainty in a semi-directed laboratory context? The main conclusions that emerged from each axis of research can be summerized as follow. 1) The most prevalent erroneous conceptions are not solidly set in a rigid conceptual network. For example, a student successful in a question about Newton’s third law (the most difficult subject of the Force Concept Inventory) is just slightly more likely to succeed in another related question than the other participants. Many pairs of questions displays a negative specific discrimination coefficient demonstrating a weak conceptual coherence in
pre-test and a somewhat ameliorated conceptual coherence in post-test. 2) If a small proportion of students has demonstrated marked deficiencies in questions related with control of variable and in those related to the relationship between the graphical display of
experimental data and a mathematical model, the majority of students can be considered as
adequately mastering those subjects. However, almost every student demonstrated a lack of mastery of concepts underlying the quantification of experimental uncertainty and the propagation of uncertainty (heretofore referred to as metrology). No statistically significant correlation has been observed between the three main topics suggesting that they are largely independent cognitive abilities. Burt table has demonstrated a greater degree of conceptual
coherence between control of variables questions than suggested by Pearson correlation coefficients. Equivalent question in the topic of metrology did not permit to demonstrate a clear conceptual coherence. 3) Analysis of a questionnaire entirely devoted to metrology has shown erroneous conceptions caused by prior learning (didactical obstacles), erroneous
conceptions based on intuitive models and a lack of global comprehension of metrological
concepts although some appear to be almost acquired. 4) When doing real experiments in
semi-directed laboratory, students demonstrated the same difficulty identified in the questionnaire of 3) which could interpreted as corroborating previously obtaine results. However, many unanticipated behaviors related to measurement were observed that could not have been anticipated solely by analyzing answers in the multiple-choice questionnaire.
Interviews immediately following each semi-directed laboratory permitted the participants to detail certain aspects of their metrological methodology. Most notably, the use of repeated measurement strategies, their « spontaneous » strategies to quantify uncertainty, and their explanation of numerical estimates of reading uncertainties. Overall, uncertainty
propagation algorithms were adequately employed. Many erroneous metrological
conceptions seem to resist strongly to be modified by learning. Among others, assignation of the resolution of a digital scale as the uncertainty value and the lack of stacking strategies to diminish uncertainty. The conception that a numerical value cannot be more precise than
the tolerance of an instrument seems firmly set.
|
269 |
Apprentissage de règles associatives temporelles pour les séquences temporelles de symbolesGuillame-bert, Mathieu 23 November 2012 (has links) (PDF)
L'apprentissage de modèles temporels constitue l'une des grandes problématiques de l'Exploration de Données (Data Mining). Dans cette thèse, nous avons développé un nouveau modèle temporel appelé TITA Rules (Règle associative temporelle basé sur des arbres d'intervalles). Ce modèle permet de décrire des phénomènes ayant un certain degré d'incertitude et/ou d'imprécision. Ce modèle permet entre autres d'exprimer la synchronicité entre évènements, les contraintes temporelles disjonctives et la négation temporelle. De par leur nature, les TITA Rules peuvent êtes utilisées pour effectuer des prédictions avec une grande précision temporel. Nous avons aussi développé un algorithme capable de découvrir et d'extraire de manière efficace des TITA Rules dans de grandes bases de données temporelles. Le cœur de l'algorithme est basé sur des techniques de minimisation d'entropie, de filtrage par Apriori et par des analyses de co-dépendance. Note modèle temporelle et notre algorithme ont été appliqués et évalués sur plusieurs jeux de données issues de phénomènes réels et de phénomènes simulés. La seconde partie de cette thèse à consisté à étudier l'utilisation de notre modèle temporel sur la problématique de la Planification Automatique. Ces travaux ont mené au développement d'un algorithme de planification automatique. L'algorithme prend en entrée un ensemble de TITA Rules décrivant le fonctionnement d'un système quelconque, une description de l'état initial du système, et un but à atteindre. En retour, l'algorithme calcule un plan décrivant la meilleure façon d'atteindre le but donné. Par la nature même des TITA Rules, cet algorithme est capable de gérer l'incertain (probabilités), l'imprécision temporelle, les contraintes temporelles disjonctives, ainsi que les événements exogènes prédictibles mais imprécis.
|
270 |
Effets des pôles de compétitivité dans les industries de haute technologie : une analyse d'économie industrielle de l'innovationIritie, Bi Goli Jean-Jacques 19 September 2012 (has links) (PDF)
Cette thèse se situe dans le cadre théorique de l'économie industrielle appliquée à l'analyse de l'innovation technologique. Elle a pour objet principal d'évaluer les effets de la politique des pôles de compétitivité sur les incitations à innover des firmes. Il s'agit en particulier de comprendre les mécanismes informationnels par lesquels ce nouveau dispositif impacte les niveaux d'investissement en recherche et développement des firmes et leurs activités. Le premier chapitre présente le cadre général de la thèse. Il explicite les éléments de théorie économique qui sous-tendent l'émergence des clusters de recherche et de développement. Le deuxième chapitre, première contribution théorique de la thèse, analyse les effets des pôles sur les niveaux d'efforts R&D de firmes qui sont en coopération au stade de la R&D mais qui sont en compétition à la Cournot sur le marché de produit. Le troisième chapitre et deuxième contribution théorique, s'intéresse aux effets des pôles dans le cadre de relations verticales de type fournisseur-clients de technologies. Le quatrième chapitre a pour but de trouver des illustrations ou des correspondances de nos résultats théoriques à travers les informations recueillies sur le terrain auprès des acteurs des pôles de compétitivité, en l'occurrence le pôle Minalogic situé à Grenoble en Isère.
|
Page generated in 0.0426 seconds