521 |
Discours de presse et veille stratégique d'événements Approche textométrique et extraction d'informations pour la fouille de textesErin, Macmurray 02 July 2012 (has links) (PDF)
Ce travail a pour objet l'étude de deux méthodes de fouille automatique de textes, l'extraction d'informations et la textométrie, toutes deux mises au service de la veille stratégique des événements économiques. Pour l'extraction d'informations, il s'agit d'identifier et d'étiqueter des unités de connaissances, entités nommées -- sociétés, lieux, personnes, qui servent de points d'entrée pour les analyses d'activités ou d'événements économiques -- fusions, faillites, partenariats, impliquant ces différents acteurs. La méthode textométrique, en revanche, met en oeuvre un ensemble de modèles statistiques permettant l'analyse des distributions de mots dans de vastes corpus, afin faire émerger les caractéristiques significatives des données textuelles. Dans cette recherche, la textométrie, traditionnellement considérée comme étant incompatible avec la fouille par l'extraction, est substituée à cette dernière pour obtenir des informations sur des événements économiques dans le discours. Plusieurs analyses textométriques (spécificités et cooccurrences) sont donc menées sur un corpus de flux de presse numérisé. On étudie ensuite les résultats obtenus grâce à la textométrie en vue de les comparer aux connaissances mises en évidence au moyen d'une procédure d'extraction d'informations. On constate que chacune des approches contribuent différemment au traitement des données textuelles, produisant toutes deux des analyses complémentaires. À l'issue de la comparaison est exposé l'apport des deux méthodes de fouille pour la veille d'événements.
|
522 |
Maturité du projet d'urbanisme et temporalités : détermination de la maturité du projet selon son épaisseur et sa transversalité temporellesJolivet, Delphine 26 November 2012 (has links) (PDF)
L'intérêt de cette recherche est d'aider à la compréhension du processus de projet, par l'entremise de ses temporalités. Nous déterminons les structures temporelles de plusieurs projets d'urbanisme, c'est-à-dire des représentations des temps des projets sous forme de découpages d'inspiration archéologique, généalogique et épistémologique. Cette analyse, issue de notre méthode d'appréhension du temps du projet, qui correspond à un projet défini comme processus, dans sa fonction de saisie d'une réalité donnée, mobilise deux notions. L'épaisseur temporelle est une image qui nuance la vision lissée du temps du projet : ce sont les temporalités du projet, actives ou inactives, qui s'ajoutent, apparaissent ou qui s'imbriquent. La transversalité temporelle est dépendante du contexte, et donc d'une analyse du parcours temporel du projet suivant les interactions entre projet et contexte. Plusieurs indicateurs de maturité du projet existent et marquent l'avancement du projet au fil du temps.
|
523 |
Modèles hiérarchiques et processus ponctuels spatio-temporels - Applications en épidémiologie et en sismologieValmy, Larissa 05 November 2012 (has links) (PDF)
Les processus ponctuels sont souvent utilisés comme modèles de répartitions spatiales ou spatio-temporelles d'occurrences. Dans cette thèse, nous nous intéressons tout d'abord à des processus de Cox dirigés par un processus caché associé à un processus de Dirichlet. Ce modèle correspond à des occurrences cachées influençant l'intensité stochastique des occurrences observées. Nous généralisons la notion de " Shot noise Cox process " introduite par Moller et développons le traitement bayésien par un échantillonneur de Gibbs combiné à un algorithme de Metropolis-Hastings. Nous montrons que cette méthode MCMC est à sauts réversibles. Le modèle prend en compte, en effet, un nombre aléatoire de contributions cachées influençant l'intensité du processus ponctuel observé donc a un espace paramétrique de dimension variable. Nous focalisons l'inférence statistique sur l'estimation de la valeur espérée de chaque contribution cachée, le nombre espéré de contributions cachées, le degré d'influence spatiale de ces contributions et leur degré de corrélation. Le test d'égalité des contributions et celui de leur indépendance sont ainsi développés. L'utilité en épidémiologie et en écologie est alors démontrée à partir de données de Rubus fruticosa, Ibicella lutea et de mortalité dans les cantons de Georgia, USA. En termes de données observées, deux situations sont considérées: premièrement, les positions spatiales des occurrences sont observées entre plusieurs paires de dates consécutives; deuxièmement, des comptages sont effectués, au cours d'une période fixée, dans des unités d'échantillonnage spatiales. D'autre part, nous nous intéressons aux processus ponctuels à mémoire introduits par Kagan, Ogata et Vere-Jones, précurseurs de la statistique sismologique. En effet, les processus ponctuels spatio-temporels ont une place importante dans l'étude des catalogues sismiques puisque ces derniers sont généralement constitués d'événements sismiques datés et géo-référencés. Nous avons étudié un modèle ETAS (Epidemic Type Aftershock Sequence) avec une intensité d'arrière-plan indépendante du temps et plusieurs fonctions déclenchantes permettant d'intégrer les événements antérieurs récents. Cette approche est utilisée pour étudier la sismicité de l'arc des Petites Antilles. Une étude comparative des modèles Gamma, Weibull, Log-Normal et loi d'Omori modifiée pour les fonctions déclenchantes est menée. Nous montrons que la loi d'Omori modifiée ne s'ajuste pas aux données sismiques des Petites Antilles et la fonction déclenchante la plus adaptée est le modèle de Weibull. Cela implique que le temps d'attente entre répliques dans la zone des Petites Antilles est plus faible que celui des régions à sismicité décrite par la loi d'Omori modifiée. Autrement dit, l'agrégation des répliques après un événement majeur est plus prononcée dans la zone des Petites Antilles. La possibilité d'inclure une intensité d'arrière-plan suivant un processus de Dirichlet centré sur un processus spatial log-gaussien est discutée.
|
524 |
Etude prédictive de fiabilité de nouveaux concepts d'assemblage pour des " system-in-package " hétérogènesBarnat, Samed 30 March 2011 (has links) (PDF)
Ce projet de thèse se situe dans le cadre de l'étude de la fiabilité prédictive de nouveaux concepts d'assemblages microélectroniques de type " system in package " SiP. L'objectif est de développer une méthodologie de fiabilité prédictive adaptée aux nouveaux concepts d'assemblage qui permet d'optimiser et de prédire les performances dès la phase de conception. Elle est ensuite appliquée sur des projets concrets. Cette méthodologie de fiabilité prédictive fait intervenir des études expérimentales, des simulations thermomécaniques et des analyses statistiques pour traiter les données et évaluer la fiabilité et les risques de défaillance. L'utilisation d'outils de simulation des composants électroniques est bien adaptée pour aider à l'évaluation des zones les plus fragiles, la mise en place des règles de conception et la détermination des paramètres les plus influents avec une réduction du temps de mise en marché d'un produit fiable et une optimisation des performances. Les études réalisées sur le silicium avec deux tests : bille sur anneau et test trois points montrent que le rodage et l'épaisseur ont une influence sur la variation de la contrainte et la déflexion du silicium à la rupture. Avec le test trois points, le déclenchement des fissures est lié à la qualité de sciage et de rodage. Cependant avec le test bille sur anneau, seule la qualité de surface influence le déclenchement des fissures. Le test bille sur anneau est bien adapté pour évaluer la qualité de surface du silicium. Avec les techniques chimiques de réduction de contraintes, comme la gravure humide et plasma, la résistance à la rupture a été considérablement améliorée. Ces tests de rupture sur le silicium ont permis de caractériser la rupture du silicium sous une contrainte de flexion et de compléter les résultats de simulation. Ces travaux démontrent, le besoin et l'utilité du prototypage virtuel des composants électroniques et de l'utilisation d'une méthodologie prédictive dans l'évaluation de la fiabilité en l'appliquant sur des composants réels.
|
525 |
ANÁLISIS DE LAS CONDICIONES DE UN TERRITORIO PARA LA INTEGRACIÓN DEL TURISMO RURAL COMUNITARIO: UNA APROXIMACIÓN A LA INVESTIGACIÓN ACCIÓN EN EL BAJO BALSAS, MICHOACÁNKieffer, Maxime 08 April 2014 (has links) (PDF)
Le tourisme est promu au Mexique comme une solution au développement des territoires ruraux. Cependant, force est de constater que ce discours résulte d'une approche limitée et trompeuse des notions de développement, réduction de la pauvreté et de conservation des ressources naturelles. À partir d'une approche systémique, multiscalaire et participative, ce travail de recherche analyse les conditions d'un territoire pour l'introduction du tourisme rural communautaire (TRC) dans un processus de développement à échelle locale-régionale. Le TRC est conçu comme partie intégrante d'un processus de changement social depuis la base dans lequel les individus et les institutions collectives en sont le moteur. La méthodologie se situe dans le domaine de la recherche-action qui se base sur un modèle d'intervention capable à la fois de produire des connaissances sur l'objet de la recherche, le lien entre TRC et territoire, et de promouvoir la construction d'apprentissages pour améliorer les prises de décisions locales. Les résultats indiquent la nécessité d'analyser avant l'introduction d'initiatives de TRC les conditions pré existantes du territoire et des visions locales des acteurs concernés qui influent directement dans la construction de l'espace touristique. Ce travail suggère que le processus de construction d'une initiative de TRC et les mécanismes qui se créent dAnalyse deoivent être étudiés avec plus d'attention.
|
526 |
Qualité de l'information des patients atteints de cancer et prise en compte du savoir profane : de la théorie à la pratique : à propos du programme SOR SAVOIR Patient de la Fédération Nationale des Centres de lutte contre le CancerCarretier, Julien 10 October 2013 (has links) (PDF)
L'information est un des besoins les plus importants des patients atteints de cancer. Leurs attentes fortes, variables et hétérogènes, en matière d'informations sur les différents aspects de la prise en charge de la maladie, soulèvent la question de la qualité de ces informations mises à disposition des patients. L'élaboration d'outils d'information et d'aide à la décision de qualité, qu'ils soient destinés aux cliniciens, tels que les recommandations pour la pratique clinique (RPC), ou aux patients, tels que des documents écrits d'information, implique la prise en compte des trois composantes essentielles de la décision médicale : données actuelles de la science (evidence-based medicine), expertise professionnelle, et préférences et valeurs des patients. Pour pouvoir baser la décision médicale sur ces trois dimensions, l'enjeu est de partager avec les patients les données actuelles de la science, et d'intégrer les préférences des patients dans les RPC. Notre hypothèse est qu'il est possible d'intégrer les préférences des patients à deux niveaux de production des connaissances : l'élaboration de documents écrits d'information des patients dans le cadre du programme SOR SAVOIR Patient d'une part, et l'élaboration de RPC pour les cliniciens d'autre part. Les résultats de ces travaux fournissent une contribution méthodologique pour améliorer la qualité des documents écrits et impliquer les patients atteints de cancer dans le développement de ces informations
|
527 |
Démélange non-linéaire d'images hyperspectralesAltmann, Yoann 07 October 2013 (has links) (PDF)
Le démélange spectral est un des sujets majeurs de l'analyse d'images hyperspectrales. Ce problème consiste à identifier les composants macroscopiques présents dans une image hyperspectrale et à quantifier les proportions (ou abondances) de ces matériaux dans tous les pixels de l'image. La plupart des algorithmes de démélange suppose un modèle de mélange linéaire qui est souvent considéré comme une approximation au premier ordre du mélange réel. Cependant, le modèle linéaire peut ne pas être adapté pour certaines images associées par exemple à des scènes engendrant des trajets multiples (forêts, zones urbaines) et des modèles non-linéaires plus complexes doivent alors être utilisés pour analyser de telles images. Le but de cette thèse est d'étudier de nouveaux modèles de mélange non-linéaires et de proposer des algorithmes associés pour l'analyse d'images hyperspectrales. Dans un premier temps, un modèle paramétrique post-non-linéaire est étudié et des algorithmes d'estimation basés sur ce modèle sont proposés. Les connaissances a priori disponibles sur les signatures spectrales des composants purs, sur les abondances et les paramètres de la non-linéarité sont exploitées à l'aide d'une approche bayesienne. Le second modèle étudié dans cette thèse est basé sur l'approximation de la variété non-linéaire contenant les données observées à l'aide de processus gaussiens. L'algorithme de démélange associé permet d'estimer la relation non-linéaire entre les abondances des matériaux et les pixels observés sans introduire explicitement les signatures spectrales des composants dans le modèle de mélange. Ces signatures spectrales sont estimées dans un second temps par prédiction à base de processus gaussiens. La prise en compte d'effets non-linéaires dans les images hyperspectrales nécessite souvent des stratégies de démélange plus complexes que celles basées sur un modèle linéaire. Comme le modèle linéaire est souvent suffisant pour approcher la plupart des mélanges réels, il est intéressant de pouvoir détecter les pixels ou les régions de l'image où ce modèle linéaire est approprié. On pourra alors, après cette détection, appliquer les algorithmes de démélange non-linéaires aux pixels nécessitant réellement l'utilisation de modèles de mélange non-linéaires. La dernière partie de ce manuscrit se concentre sur l'étude de détecteurs de non-linéarités basés sur des modèles linéaires et non-linéaires pour l'analyse d'images hyperspectrales. Les méthodes de démélange non-linéaires proposées permettent d'améliorer la caractérisation des images hyperspectrales par rapport au méthodes basées sur un modèle linéaire. Cette amélioration se traduit en particulier par une meilleure erreur de reconstruction des données. De plus, ces méthodes permettent de meilleures estimations des signatures spectrales et des abondances quand les pixels résultent de mélanges non-linéaires. Les résultats de simulations effectuées sur des données synthétiques et réelles montrent l'intérêt d'utiliser des méthodes de détection de non-linéarités pour l'analyse d'images hyperspectrales. En particulier, ces détecteurs peuvent permettre d'identifier des composants très peu représentés et de localiser des régions où les effets non-linéaires sont non-négligeables (ombres, reliefs,...). Enfin, la considération de corrélations spatiales dans les images hyperspectrales peut améliorer les performances des algorithmes de démélange non-linéaires et des détecteurs de non-linéarités.
|
528 |
Le mentorat : les perceptions des enseignants débutants dans un contexte scolaire francophone minoritaireGauthier, Manon Madeleine 22 September 2011 (has links)
Dans les dernières années, une pénurie d’enseignants s’est fait sentir en Ontario. Bien qu’elle ne soit pas aussi omniprésente que par le passé, les conseils scolaires éprouvent toujours de la difficulté à recruter et à retenir des enseignants qualifiés. L’attrition des enseignants débutants mérite également une attention particulière étant donné que de 30 à 50 % d’entre eux laissent l’enseignement avant cinq années d’expérience. Ces faits portent à réfléchir sur le mentorat des enseignants qui ressort des écrits recensés comme la clé de la rétention.
La présente recherche descriptive et exploratoire a été effectuée selon l’approche mixte avec le questionnaire, l’entrevue semi-structurée et l’analyse documentaire comme techniques de collecte de données. Elle s’est inspirée des fondements conceptuels de la théorie de l’apprentissage transformatif de Mezirow (1991, 2000), dont le constructivisme, la pratique réflexive et l’autoefficacité. Le questionnaire a fait émerger la nécessité du temps adéquat dans une relation mentorale ainsi que le bien-fondé de la théorie de l’apprentissage transformatif comme choix d’assise théorique. L’échantillon des entrevues a consisté en cinq enseignants débutants provenant d’un milieu minoritaire francophone du nord de l’Ontario. Les résultats ont signalé l’importance du mentorat comme activité professionnelle essentielle au succès du système d’éducation dans son ensemble et ont permis de mieux comprendre l’expérience des enseignants débutants en milieu scolaire francophone minoritaire et isolés des grands centres. Adhérant fortement aux principes sous-jacents des concepts théoriques de cette étude, les participants ont précisé que 13 facteurs sont particulièrement significatifs pour la réussite mentorale. Entre autres, la relation mentorale doit être une activité de transformation perpétuelle tant pour les enseignants débutants que pour les enseignants chevronnés. L’analyse documentaire a rapporté que le conseil scolaire tient compte du constructivisme dans ses documents qui portent sur le mentorat; la pratique réflexive et l’autoefficacité, bien que présents, l’y sont moins.
|
529 |
Economics as a "tooled" discipline : Lawrence R. Klein and the making of macroeconometric modeling : 1939-1959 / L'économie saisie par les outils : Lawrence R. Klein et la construction de la modélisation macro-économétrique : 1939-1959Pinzón Fuchs, Erich 28 March 2017 (has links)
Cette thèse, dont l'objectif est de faire prévaloir l'importance de la macro-économétrie dans l'histoire de la macro-économie, s'articule autour de deux questions centrales : (1) Quelles ont été les forces et les objectif qui ont motivé le développement de la modélisation macro-économétrique et quelle est la nature des outils et des institutions que les macro-économistes ont construit pour observer, comprendre et contrôler l'économie d'après-guerre aux États-Unis , (2) Quels ont été les effets de la construction et de l'utilisation de tels outils dans la production du savoir macro-économique ? En considérant Lawrence R. Klein comme une figure centrale, je parcours la discipline économique des années 1940-1950 en me focalisant sur l'intersection entre l'histoire de la macro-économie et celle de l'économétrie, et ainsi, je propose une nouvelle vision de 'économie du vingtième siècle en tant que discipline "saisie par les outils", dans laquelle la théorie (économique et statistique), l'application, l'expertise et la politique s'incorporent dans un même outil scientifique : un model macro-économétrique. j'expose donc l'histoire de la macro-économie non pas comme le produit des questions idéologiques monolithiques ou purement théoriques, mais plutôt comme le produit des visions épistémologiques et de stratégies de modélisation divergentes qui remontent aux débats entre les approches empiriques de la macro-économie étatunienne et les méthodologies Walrasienne et Marshallienne. Ainsi, je soutiens la thèse que Klein a été le personnage principal dans la création d'une nouvelle manière de produire le savoir macro-économique qui, à travers la construction et l'utilisation d'outils complexes (modèles macro-économétriques) mis en place au sein d'une configuration institutionnelle spécifique (laboratoires économétriques), poursuivait des objectifs explicites de politique économique, et par laquelle les rôles bien définis des experts (équipes scientifiques) étaient intégrées à une nouvelle pratique scientifique : la modélisation macro-économique. / In this disseration, I place macroeconometric modeling at the center of the history of twentieth century macroeconomics, i. e. as e history of macroeconometrics, and ask two central questions : (1) What exactly were the objectives and the forces driving the development of macroeconometric modeling, and what kind of tools and institutions did macroeconomists build to observe, understand, and control the US postwar economy ? (2) What were the effects that the construction and use of these tools had on the production of macroeconomic knowledge ? Taking Lawrence R. Klein as a vehicle, I travel accross the economics discipline of the 1940s and 1950s, and study the intersection between the history of macroeconomics and the history of econometrics, providing a new understanding of twentieth century economics as a "tooled" discipline, in which theory (economy and statistical), application, expertise, and policy become embedded within one scientific tool : a macroeconometric model. Consequently, I present the history of macroeconomics not as the product of monolithic ideological and purely theoretical issues, but rather of divergent epistemological views and modeling strategies that go back to the debates between US-Walrasian and US-Marshallian approaches to empirical macroeconomics in which macroeconometric modeling from the heart of macroeconometrics. My thesis is that Klein what the most important figure in the creation of a new way to produce scientific knowledge that consisted in the construction and use of compex tools (macroeconometric models) within specific institutional configurations (econometric labotories) and for explicit policy and scientific objectives, in which well-defined roles of experts (scientific teams) were embodied within a new scientific practice (macroeconometric modeling).
|
530 |
Proposition d’un cadre méthodologique comme support aux approches d’écoconception en entreprise : exigences et conceptualisation pour une plateforme logicielle / A methodological framework to support integrated ecodesign for companies : requirements and conceptualization towards a software platformDufrene, Maud 29 April 2015 (has links)
La prise en compte des enjeux environnementaux est aujourd'hui un point essentiel dans la stratégie de développement durable des entreprises. La revue de la littérature montre que l'écoconception n'est pas simple à intégrer du fait de ses spécificités. Malgré le nombre important d'outils et de méthodes existantes, les entreprises rencontrent encore souvent des difficultés à intégrer l'écoconception dans leur processus de conception.Ces recherches proposent donc une solution couplant une méthodologie et une plateforme logicielle. La méthodologie guide l'équipe de conception à travers une série d'étapes à réaliser dans le processus de conception. Et pour gérer les activités d'écoconception, nous avons défini la structure d'une plateforme logicielle rassemblant les outils nécessaires à l'équipe de conception : des outils pour la conception du cycle de vie du produit, un outil d'évaluation des impacts coût et environnement, un outil d'aide à base de règles de conception et d'études de cas, un outil de suivi des indicateurs projet et des bases de données en relation avec le modèle produit et son cycle de vie.Les résultats de deux expérimentations industrielles démontrent la validité de notre proposition. Cependant, une limite de la plateforme a été identifiée lors du second cas d'étude. Une troisième expérimentation a donc été réalisée lors d'un atelier pendant une conférence internationale pour solutionner ce point. / Today the consideration of environmental issues is essential in relation to companies' sustainability policy. The literature review reveals that ecodesign is not an easy viewpoint to integrate due to its specificities. Despite the great number of existing tools and methods, companies still encounter difficulties for implementing ecodesign in their design process.This research work aims at providing a combined solution including a methodology supported by a software platform. The methodology guides the design team through a series of steps to realize in the design process. And, to manage ecodesign activities, we defined the structure of a software platform gathering the necessary tools for the design team: tools for the design of the product life cycle, an assessment tool for the cost and the environmental impacts, a guidance tool based on ecodesign rules and case studies, a monitoring tool for the project indicators, and databases in relation with the model of the product and its life cycle.The results of two industrial experiments demonstrate the validity of our proposition. However, a limit of the platform has been identified during the second case study. A third experiment has therefore been realised during a workshop in an international conference to tackle this point.
|
Page generated in 0.0731 seconds