• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 163
  • 24
  • 23
  • Tagged with
  • 218
  • 218
  • 79
  • 76
  • 63
  • 59
  • 49
  • 49
  • 48
  • 38
  • 34
  • 32
  • 30
  • 30
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Deduction of inter-organizational collaborative business processes within an enterprise social network / Déduction de processus métier collaboratifs inter-organisationnels au sein d'un réseau social d'entreprises

Montarnal, Aurélie 08 October 2015 (has links)
Particulièrement lors de collaborations dans le cadre de chaînes logistiques ou d'entreprises virtuelles, établir les workflows collaboratifs est une étape laborieuse car souvent réalisée soit de façon humaine, soit avec des méthodes manquant de flexibilité. Sur la base d'un réseau social d'entreprises, cette thèse vise à faciliter cette étape en proposant un service de déduction de processus collaboratifs inter-organisationnels. Cela soulève trois problèmes: (i) trouver les activités qui doivent être exécutées pour remplir les objectifs de la collaboration (Quoi?), (ii) sélectionner les partenaires pouvant réaliser ces activités (Qui?) et (iii) ordonner ces activités en un processus métier collaboratif (Quand?). Dans le cadre d'un réseau social, il est attendu que plusieurs organisations soient capables de fournir les mêmes activités. Dans un tel contexte de concurrence entre les organisations, une optimisation globale permet de trouver un processus final quasi-optimal, en prenant en compte ces trois questions de manière simultanée : trouver l'ensemble des "meilleurs" partenaires et leurs activités dans un contexte de collaboration spécifique. A cette fin, des ontologies de collaboration ont été développées et permettent de représenter et collecter des connaissances sur les collaborations. Ainsi, quand les utilisateurs remplissent leurs profils sur le réseau social, le système peut comprendre (i) les attentes des utilisateurs lorsqu'ils fournissent leurs objectifs de collaboration et (ii) les capacités qu'ils peuvent fournir. Un outil d'aide à la décision, basé sur un algorithme d'optimisation par colonies de fourmis permet ensuite d'exploiter les ontologies de collaboration afin de trouver un processus quasi-optimal répondant aux attentes et objectifs de la collaboration. Les résultats de cette thèse s'inscrivent au sein du projet FUI OpenPaaS dont le but est d'établir un nouveau réseau social d'entreprises visant à faciliter leurs collaborations intra et inter-organisationnelles. / Especially in the context of collaborative supply chains and virtual enterprises, the step of designing the collaborative workflows remains laborious because either it is still carried out humanly or the methods lack of flexibility. Based on an enterprise social network, this thesis aims at facilitating this step by proposing a service for the deduction of collaborative processes. It raises three main issues: (i) finding the activities to execute that answer the objectives of the collaboration (What?), (ii) selecting the corresponding partners (Who?) and (iii) ordering the activities into a collaborative business process (When?). Moreover, it is expected that many companies could be able to provide the same activities, on the enterprise social network. In this competitive context, a global optimization should be set up in order to find the quasi-optimal collaborative process that answer these three questions simultaneously. A three-dimensional solution is proposed here. First, a non-functional framework has been set up in order to determine the criteria that make a « good » partner in a specific collaborative context. Then, collaborative ontologies have been implemented and enable the representation and the acquisition of collaborative knowledge, so that the IT system can understand (a) the user's needs when they model their objectives of collaboration and (b) the user's capabilities when they model their profiles on the enterprise social network. And finally, a tool for decision support has been implemented thanks to an ant colony optimization algorithm that exploits the collaborative ontologies in order to provide a quasi-optimal process that fits the context of the collaboration and answers its objective. The results are in line with the FUI French project OpenPaaS which aims at offering an enterprise social network to facilitate their collaborations.
172

Bordures : de la sélection de vues dans un cube de données au calcul parallèle de fréquents maximaux

Tofan, Radu-Ionel 28 September 2010 (has links)
La matérialisation de vues est une technique efficace d'optimisation de requêtes. Dans cette thèse, nous proposons une nouvelle vision "orientée utilisateur" de solutions pour le problème de sélection de vues à matérialiser dans les entrepôt de données : l'utilisateur fixe le temps de réponse maximal. Dans cette vision nous proposons des algorithmes qui s'avèrent compétitifs avec les algorithmes de type "orienté système", dans lesquels les ressources, comme la mémoire, sont considérées comme la contrainte forte. L'approche "orientée utilisateur" est étudiée avec un contexte dynamique de système d'optimisation de requêtes. Nous analysons la stabilité de ce système par rapport à la dynamique de la charge de requêtes et des données qui sont insérées ou supprimées. Le concept clé de nos algorithmes de sélection de vues à matérialiser est la bordure. Ce concept a été très étudié en fouille de données dans le cadre du calcul des fréquents maximaux. Plusieurs algorithmes séquentiels ont été proposés pour résoudre ce problème. Nous proposons un nouvel algorithme séquentiel MineWithRounds, facilement parallélisable, qui se distingue des autres propositions par une garantie théorique d'accélération dans le cas de machines à plusieurs unités de calcul et à mémoire partagée. / The materialization of views is an effective technique for optimizing queries. In this thesis, we propose a new vision, we qualify it as "user oriented", of the solutions to the problem of selecting views to materialize in data warehouses : the user fixes the maximum response time. In this vision, we propose algorithms that are competitive with the algorithms "oriented system" type, where resources such as memory, are considered as the major constraint. The "user oriented" approach is studied under a dynamic context. We analyze the stability of this system with respect to the dynamic query workload dynamic as well as data dynamic (insertions and deletions). The key concept of our algorithms for selecting views to materialize is the border. This concept has been widely studied in the data mining community under the maximal frequent itemset extration setting. Many sequential algorithms have been proposed. We propose a new sequential algorithm MineWithRounds, easily parallelizable, which differs from the others in that it guarantees a theoretical speed up in the case of multiprocessors shared memory case.
173

Analyse des dynamiques spatiales et épidémiologie moléculaire de de la maladie du swollen shoot du cacaoyer au Togo : étude de diffusion à partir des systèmes d'information géographiques / Spatial dynamics analysis and molecular epidemiology of the cocoa swollen shoot virus in Togo : spread study with geographic information system.

Oro, Zokou-Franck 16 November 2011 (has links)
Le Cacao swollen shoot virus (CSSV) est un virus infectant le cacaoyer transmis par des cochenilles farineuses de la famille des Pseudococcidae. La maladie qui en découle existe aujourd'hui dans les principales zones de production de cacao d'Afrique de l'Ouest qui représentent 72% de la production mondiale de cacao. Le CSSV a été découvert en 1922 au Ghana et identifié avec certitude dans le Kloto au Togo en 1955 ; le premier isolat étudié moléculairement est l'isolat très virulent Agou1 du Togo. Cet isolat provoque des gonflements de tiges et de rameaux ainsi que des colorations rouge intense au niveau des nervures des jeunes feuilles engendrant ensuite une défoliation complète de l'arbre et sa mort au bout de 5 ans. La progression actuelle du CSSV dans les nouvelles zones de production, notamment au Togo (Litimé) en 1996 et en Côte d'Ivoire (Issia, Bouaflé, Sinfra) en 2000, indique une nouvelle émergence de la maladie. La découverte de ces nouveaux foyers soulève des questionnements sur l'origine des isolats et sur les mécanismes épidémiologiques impliqués dans la propagation de la maladie à l'échelle parcellaire et à l'échelle des territoires.Ces questionnements scientifiques sont pris en compte dans cette étude à trois niveaux : i) l'analyse statistique de la répartition spatiale et temporelle de la maladie à l'échelle des parcelles (fonctions de Ripley et analyse du nombre de liens entre arbres malades) et la cartographie des dynamiques d'évolution au moyen de systèmes d'information géographique (SIG), ii) la diversité moléculaire des isolats de CSSV en lien avec leur répartition géographique afin d'établir une carte de répartition dans les deux régions de production (Kloto et Litimé) et d'essayer de retracer l'historique de la propagation du virus, iii) la cartographie des zones cacaoyères, des cacaoyères saines en comparaison aux cacaoyères malades, à l'échelle des territoires par la combinaison des données satellites Spot5 à 2.5 m de résolution spatiale et des motifs de paysage relevés sur le terrain.L'analyse spatiale avec les fonctions de Ripley et l'analyse du nombre de liens ont montré que les différents états sanitaires (sain, malade, mort) des cacaoyers sont agrégés indiquant ainsi une propagation à partir de foyers d'infection au niveau parcellaire. L'analyse du nombre de liens indique un processus de contamination de plante à plante dans les parcelles. Les études des dynamiques d'évolution au moyen de SIG ont montré à travers des cartes de densités que les cacaoyers malades et les cacaoyers morts sont regroupés en agrégats dans les parcelles et que la taille de ces agrégats augmente entre les deux années d'observation (2008 et 2009). Les dynamiques de changement ont permis de détecter une progression de la maladie plus rapide dans certaines parcelles, qui peut s'expliquer par leur moins bon entretien. La caractérisation des isolats de virus dans les cacaoyères togolaises a montré l'existence de trois groupes dont les groupes A et B uniquement dans le Litimé, et le groupe C uniquement dans le Kloto, indiquant une forte différenciation géographique. Les coefficients de corrélation de Pearson et de Spearman indiquent qu'il existe un lien entre distance génétique et distance géographique des isolats du groupe A, ce qui implique une contamination de proche en proche pour ce groupe à l'échelle du territoire. Compte tenu de la différenciation marquée entre les groupes du Kloto et du Litimé, nous pouvons conclure que les cacaoyères du Litimé n'ont pas été contaminées par du matériel venant du Kloto mais plus probablement à partir de parcelles cacaoyères situées au Ghana et contaminées précédemment pour se répandre ensuite dans le Litimé. L'étude des images satellites a montré qu'il n'existait pas de relation simple entre l'état sanitaire des motifs de cacaoyers et leur radiométrie en raison de la forte hétérogénéité du système agroforestier du Litimé / Cacao swollen shoot virus 'CSSV ' is a virus transmitted by mealybugs, insects of the Pseudococcidae family. The disease occurs in all the main cocoa-growing areas of Western Africa. It induces swellings on shoots and roots and mosaic and chlorosis on the leaves and has caused very serious crop losses in Ghana, Nigeria and more recently, Togo and Côte d'Ivoire. The cocoa production in Western Africa, representing about 72 % of the worldwide production is particularly important for the economic equilibrium of these countries. The actual progress of the CSSV epidemic in the large production areas in Togo like ‘Litimé' and ‘Kloto' and in Côte d'Ivoire (Issia, Bouaflé, Sinfra) requires to understand and forecast its spread in time. The discovery of these new focuses of the disease raises questions about the origin of the isolates and the mechanisms involved in the epidemiological spread of the disease at field scale and across territories.These scientific questions are addressed in this study at three levels: i) the spatial and temporal distribution of disease across the plots with statistical methods (Ripley and analysis of the number of links) and geographical information systems (GIS) to map the dynamics of evolution, ii) the molecular diversity of CSSV isolates related to their geographical distribution in order to establish a distribution map in the two regions of production (Kloto and Litimé) and try to understand the history of the virus spread, iii) the mapping of cocoa area in Litimé, the mapping of disead cocoa in comparison with healthy cocoa at the territories scale by combining satellite data with SPOT5 2.5 m spatial resolution and landscape motifs field surveys.The spatial analysis with Ripley's method and analysis of the number of links have shown that the different states of health (healthy, disead, dead) of cocoa trees are aggregated indicating a spread by patch at plot level. The analysis of the number of links indicates a process of contamination from plant to plant in the plots. Studies of the dynamics of evolution from Sig showed through density maps that disead cocoa trees and dead cocoa tree are grouped into clusters in the plots and the size of these aggregates increases significantly between the two years observation (2008 and 2009). The dynamics of change have detected a similar progression of the disease in plots 2 and 3 speedy than Parcel 1. This difference of the disease progress on the three plots can be explained by better maintenance of Parcel 1. The characterization of virus isolates on cocoa plots in Togo has shown the existence of three groups with groups A and B only in the Litimé, and group C only in the Kloto, indicating strong geographical differentiation. The correlation coefficients of Pearson and Spearman indicate a link between genetic distance and geographical distance of the isolates of group A, which implies a contamination step by step for this group at territories scale. Given the marked differentiation between the groups of Kloto and Litimé, we can conclude that the cocoa tree of Litimé were not contaminated with material from the Kloto but more likely from plots located in Ghana and previously infected then spread in the Litimé. The study with the satellite images showed that there was no simple relationship between the health patterns of cocoa trees and their radiometry because of the high heterogeneity of the agroforestry system of Litimé. The combination of landscape motifs and radiometry, however, possible to distinguish areas with dominant "cocoa", areas dominated by "crops", areas dominated by "forest". Among the areas to be dominant "cocoa", we have distinguished the cocoa denuded areas that correspond to potential disease areas and cocoa shade. These various studies indicate that disease progression is slow and works gradually. Emergences observed in new areas probably come from human movements
174

Système d'Information de Médiation pour le pilotage réactif et anticipatif de la réponse à une situation de crise : application aux perturbations sur les réseaux routiers / A Mediation Information System for reactive and anticipative crisis management : a road crisis application

Macé-Ramète, Guillaume 09 April 2015 (has links)
La réponse aux situations de crise routière hivernale est gérée en France au niveau zonal par les Centres Régionaux d'Information et de Coordination Routière (CRICR). Le pilotage de ces crises est réalisé à une échelle multi départementale et fait intervenir de multiples parties prenantes (gestionnaires routiers, préfectures, forces de l'ordre...). La coordination de ces acteurs hétérogènes apparaît donc comme indispensable pour assurer une réponse efficace à la situation de crise. C'est le rôle de la cellule de crise, de garantir cette coordination afin de permettre une bonne exécution de la réponse. C'est surtout son rôle d'assurer la qualité de la réponse quelque soient les aléas et les perturbations rencontrées. Malheureusement, force est de constater que les acteurs en présence ne disposent pas des outils adéquats pour atteindre ces objectifs. Les présents travaux de thèse ambitionnent d'améliorer cette situation par la mise en place d'un système d'information de médiation agile. Celui-ci repose sur la constitution d'une base de connaissances (ontologie), alimentée à partir de la collecte de données issues de systèmes d'information hétérogènes, pour permettre la définition tactique d'une solution adaptée de réponse allant jusqu'à la formalisation des processus collaboratifs à mettre en œuvre. La réalisation de la collaboration s'assoit alors sur une orchestration informatique de ces processus. Dans notre proposition, la détection "à chaud" de problèmes et les recommandations d'adaptation générées soutiennent le pilotage « réactif » de la réponse dans un environnement complexe et particulièrement instable. Cette fonctionnalité est complétée par un système capable de détecter a priori les problèmes, en établissant une projection de la situation courante (crise et réponse) à partir des éléments dont la cellule de crise dispose. Cette projection donne lieu à une évaluation de la situation future et contribue à la conception d'une nouvelle réponse. Ces mécanismes permettent un pilotage « anticipatif » de la gestion de crise. Les résultats de cette thèse ont été principalement développés et validés dans le cadre du projet PREDIT SIM-PeTra sur l'amélioration de la coordination dans la gestion des crises par la mise en place d'un Système d'Information de Médiation dans le cadre de Perturbations dans les Transports. / In France, the response to winter road emergencies are managed by Regional Centres for Information and Road Coordination (CRICR). The management of these crises is performed at a multi county level and involves multiple stakeholders (road operator, local representative of national authority, police…). Therefore, the coordination of such heterogeneous actors must be assumed by the crisis cell to ensure an effective response. The crisis cell has also to provide a good response facing hazards and disturbances encountered. Unfortunately, it is clear that the involved actors do not have a relevant and adequate set of ICT tools to achieve these goals. This thesis aims at improving this situation by setting up an agile mediation information system. This is based on the creation of a knowledge base (structured as an ontology), fed from the gathering of data from all the available heterogeneous information systems, to enable the tactical definition of a suitable response. The final goal is to formalize this response as collaborative processes to implement and to orchestrate through a computer system. In our proposal, detecting "hot" issues (such as disruptions or unexpected events) and making recommended adaptation support the "reactive" control of the response in a complex and highly unstable environment. This feature is completed by a system able to detect a priori problems, by establishing a projection of the current situation (crisis response), based on the collected forecasts owned by the crisis manager (traffic, weather, etc.). This projection leads to an assessment of the future situation and contributes to the design of a new response. This mechanism allows a " proactive " oversight of crisis management. The results of this PhD have mainly been developed and validated in the SIM Petra project (funded by PREDIT) regarding the establishment of a Mediation Information System to improve the coordination of the management of crisis concerning disruptions in transport.
175

Vulnérabilité physique des milieux urbanisés face à la menace des inondations (lahars et crues éclair) : application au cas d'étude d'Arequipa au Pérou / The physical vulnerability of urban areas facing the threat of inundation from lahars and flash floods : application to the case study of Arequipa, Peru

Martelli, Kim 15 September 2011 (has links)
Les écoulements volcaniques (lahars, écoulements hyperconcentrés) et les crues soudaines représentent des phénomènes destructeurs et dangereux. Malgré leur pouvoir destructeur (e.g. Armero, Colombie, 1985), il existe très peu d’études centrées sur les effets des lahars en zone urbaine, alors qu’ils représentent une menace réelle pour de nombreuses villes, comme Arequipa, au Pérou. Arequipa est une ville de presque 1 million d’habitants située à 17 km au sud-est du volcan El Misti. La dernière éruption majeure du Misti remonte à 550 ans (1460 après J.C.) et de plus petites éruptions ont parsemé le 18ème et le 19ème siècle. Des lahars dont les volumes sont compris entre 0,01x106 et 11x106 m3 se sont formés et des inondations ont balayé les vallées tous les 5 à 10 ans. Suite à l’augmentation de la population d’Arequipa, la zone urbanisée s’étend maintenant sur les flancs du volcan, jusqu’à 9 km du sommet. En réponse à cette croissance rapide et apparemment incontrôlée, il est essentiel d’évaluer l’utilisation des sols, les bâtiments et les infrastructures en fonction de leur vulnérabilité. Des scénarios d’aléas ont été développés à partir d’anciennes et d’actuelles études géologiques, de cartes traditionnelles et des modèles numériques (tels que Titan2D) des dépôts volcaniques et fluviaux, d’études de terrain sur l’utilisation des sols, le type de bâtiments et d’infrastructures, d’analyses statistiques (y compris des analyses multi variantes) et enfin des caractéristiques géotechniques des matériaux utilisés pour les constructions. Trois scénarios de référence ont été utilisés allant d’un scénario de crue (récurrence de 5 à 10 ans) à une éruption (sub) Plinienne (VEI >3, récurrence de 5000 à 20 000 ans). Les zones inondables ont été délimitées en utilisant des résultats de code de simulation couplés à des cartographies géologiques et à des analyses de magnitude/fréquence. L'amélioration d'un MNT, construit à partir d’études DGPS et de données ASTER (10 m de résolution), a permis de modéliser les écoulements à partir de Titan2D. Les résultats du modèle montrent une extension des écoulements plus longue que celles proposées dans les études précédentes (e.g Vargas et al, 2010). L’étude de terrain a permis de classifier l’utilisation des sols selon 19 catégories et les principaux bâtiments et infrastructures selon 10 catégories. Par exemple, les bâtiments ont été classés et ordonnés selon des critères de nature du matériau principal les constituant, nombre d’étages, etc. De la même manière, la classification de l’utilisation des sols et du type d’infrastructures ont été classé en fonction de différents éléments comme le taux d’occupation, l’importance des évacuations d’urgence etc. Les effets mécaniques des écoulements sur les immeubles et les infrastructures ont été recherchés dans le but d’élaborer des fonctions de vulnérabilité. Cette étude a révélé que les bâtiments et l’utilisation des sols du Quebrada Huarangal sont particulièrement vulnérables et exposés au risque même lors d’un écoulement de faible magnitude. Ceci est essentiellement dû à la très faible qualité des constructions dans les zones à hauts risques du Quebrada Huarangal. Au contraire, le risque présent dans la vallée du Rio Chili est une zone à faible risque. Le niveau de risque inhérent au système d’énergie hydroélectrique et aux réserves d’eau potable reste inquiétant pour la ville, notamment durant une crise volcanique. Cette étude a mis en évidence les capacités d’intégration des données SIG générant de l’information sur le risque via la combinaison de scénarios d’aléas et d’éléments de vulnérabilité. Ces méthodes semblent être prometteuses pour l’étude et la prévention des risques volcaniques. De plus, une base de données mise à jour pourrait aider à gérer de manière efficace une possible crise volcanique en temps réel, et ce qui est plus important encore, assister les tâches de réduction des risques. / Volcanic mass flows (lahars, hyperconcentrated flows) and flash floods represent destructive and dangerous phenomena. Given evidence concerning the destructive nature of lahars (e.g. Armero, Colombia, 1985) there appears to be a lack of studies into the effect of lahars in dense urban environments ; a very real threat for many cities worldwide including the Arequipa, Peru. Arequipa, with nearly 1 million inhabitants, is located 17 km SW of El Misti Volcano. El Misti's last major eruption occurred 550 years ago (1460AD), with smaller eruptions occurring in the 18 and 19th Centuries. Lahars with volumes ranging from 0.01x106 m3 to 11x106 m3 have occurred, and flash floods have swept down valleys every 5 to 10 years. Population growth has resulted in urban sprawl to within 9 km of El Misti’s summit. It is this rapid and seemingly uncontrolled expansion which warrants the assessment of building, land use and infrastructure within a vulnerability framework. Hazard scenarios were developed from former and current geological studies ; conventional and computer-aided (e.g. Titan2D numerical modelling) mapping of volcaniclastic and fluvial deposits ; field surveys of land use, buildings and infrastructure ; statistical analysis (including multivariate analysis) ; and geotechnical characteristics of building materials. Three reference scenarios were used from a flash flood scenario (recurrence interval of 5 to 10 years) to a (sub)Plinian eruption (VEI >3, recurrence interval of 5000 to 20,000 years). Inundation zones were defined using simulation code results coupled with geological mapping and magnitude/frequency analysis. The results of Titan2D modelling feature a longer flow runout than in previous studies (e.g. Vargas et al., 2010) due to the creation of an enhanced 10 m DEM, constructed from DGPS surveys and ASTER data. Land-use, building and infrastructure surveys identified nineteen different land-use patterns, ten main building types and many key infrastructures. Building types were classified and ranked according to a number of components, such as the dominant building material, number of floors etc. Similarly land use and infrastructure were ranked according to a number of different elements such as occupancy rate, emergency importance etc. The mechanical effects of the flows on buildings and infrastructure were then investigated to elaborate vulnerability functions. The vulnerability and risk assessment have indicated that building, land use and infrastructure on the Quebrada Huarangal fan are particularly vulnerable and at risk even during the smallest magnitude flow. This is primarily due to very poor quality construction in high hazard areas on the Quebrada Huarangal fan. In contrast the risk posed in the Río Chili Valley is in general much less. The level of risk posed to the hydroelectric power scheme and the potable water supply is concern for the city, especially during a volcanic crisis. Data integration abilities of GIS in generating risk information by combining hazard scenarios with vulnerability elements have been highlighted in this research and offer promising prospects in the field of volcanic risk assessment and management. In addition, an updated database could help to efficiently handle possible volcanic crisis in real-time, and more importantly assist the risk reduction tasks.
176

Etude transversale et longitudinale des relations entre les environnements géographiques de vie et l'excès de poids et le risque cardiovasculaire / Cross-sectional and longitudinal study of relationship between geographic life environment and excess weight and cardiovascular risk

Lewin, Antoine 13 May 2015 (has links)
Face aux limites de la littérature internationale sur les disparités environnementales de prévalence d’obésité (focus sur le lieu de résidence, etc.) et considérant le manque d’études empiriques réalisées en France, nous nous sommes intéressés tout d’abord aux relations entre, d’une part, les caractéristiques des environnements résidentiels et professionnels et le secteur d’activité économique et, d’autre part, deux indicateurs d’excès de graisse corporelle : l’indice de masse grasse (IMG) et le pourcentage de masse grasse (%MG). Ensuite, nous avons comparé les effets des secteurs d’activité économique sur plusieurs facteurs de risque cardiovasculaire. Finalement, à l’aide d’une étude longitudinale, nous avons évalué les liens entre les variables socio-économiques et l’évolution des paramètres anthropométriques chez les participants de l’Étude RECORD. Parallèlement à l’étude de ces relations, notre objectif méthodologique était d’explorer les biais d’attrition liés aux données manquantes dans les études longitudinales.Pour conclure, nous avons pu par ces travaux empiriques mettre en évidence des effets des caractéristiques individuelles, de l’environnement résidentiel, et des secteurs d’activité économique sur l’accumulation de la masse grasse corporelle ainsi que sur les facteurs de risque cardiovasculaire. En ce qui concerne le volet méthodologique de ce travail, d’une part nous avons été en mesure de tenir compte dans les analyses de l’environnement géographique de résidence communément pris en compte. D’autre part, nous démarquant d’une littérature sur les déterminants sociaux de l’obésité essentiellement transversale, nous montrons que selon le mécanisme des données manquantes, les méthodes statistiques communément utilisées ne permettent pas de contourner les biais potentiels induits par l’attrition dans les analyses longitudinales. / Given the limits of the international literature on the environmental disparities in obesity prevalence (focused on the residential neighborhood) and considering the lack of empirical studies conducted in France, we were interested in the relations between, on the one hand, the characteristics of residential and professional neighborhood characteritics and the work economic sector, and on the other hand, two body fat indicators: the Fat Mass Index (FMI) and the percentage of Fat Mass (%FM). Then we compared the effects of the work economic sectors on several cardiovascular risk factors. Finally using a longitudinal study, we evaluated the links between socioeconomic variables and the evolution of the anthropometric parameters among participants of the RECORD Study. Simultaneously, our methodological objective was to explore the attrition biases due to missing data in longitudinal studies.To conclude, we could by those empirical works highlight the effect of the individual and the residential characteristics, and the work economic sectors on the accumulation of body fat as well as on cardiovascular risk factors. Regarding the methodological part of this work, firstly we were able to take into account in the analysis the residential geographical environment commonly considered. Secondly, differentiating us from the transversal literature on the social determinants of obesity, we show that depending on the missing data mechanism, the statistical methods commonly used can not circumvent the potential bias introduced by attrition in longitudinal analyses.
177

Contribution à la mise au point d'un pilotage énergétique décentralisé par prédiction / Decentralized energy management by predictions

Dufour, Luc 20 March 2017 (has links)
Comment satisfaire les besoins en énergie d’une population de 9 milliards d’êtres humains en 2050, de façon économiquement viable tout en minimisant l’impact sur l’environnement. Une des réponses est l’insertion de production d’énergie propre d’origine éolienne et photovoltaïque mais leurs totales dépendances aux variations climatiques accentuent une pression sur le réseau. Les modèles prédictifs historiques centralisés et paramétriques ont du mal à appréhender les variations brutales de productions et de consommations. La révolution internet permet aujourd’hui une convergence entre le numérique et l’énergie. En Europe et depuis cinq ans, l’axe d’étude est celui de la maîtrise locale de l’électricité. Ainsi plusieurs quartiers intelligents ont été créés et les modèles utilisés de pilotage et de prédiction restent souvent la propriété des partenaires des projets. Dans cette thèse, Il s’agit de réaliser un bilan énergétique chaque heure pour prédire l’ensemble des vecteurs énergétiques d’un système. Le besoin en énergie d’un système comme une maison est décomposée en un besoin en chauffage, en un besoin en eau chaude sanitaire, en un besoin en luminaires, en besoin de ventilation et en usages spécifiques électriques utiles. Le système peut posséder une production décentralisée et un système de stockage ce qui augmentera sa capacité d’effacement. Pour le centre de pilotage, l’objectif est d’avoir une possibilité de scénarios de surproductions ou surconsommations sur un quartier donnée à court terme. Nous considérerons dans cette thèse un horizon à l’heure pour notre bilan énergétique. Cela implique une prédiction fine des différents flux énergétiques d’un système en particulier le chauffage et l’eau chaude qui représente le plus gros potentiel de flexibilité dans les bâtiments. Pour réaliser un bilan, nous devons calculer les différents flux énergétiques à l’intérieur de notre système : les déperditions par l’enveloppe et la ventilation, les gains internes solaires, des personnes et des appareils, le stockage, la production d’eau chaude sanitaire, les usages spécifiques électriques utiles. Sur certains de ces points, nous pouvons évaluer assez précisément et en fonction du temps les quantités d’énergie échangées. Pour les autres (ECS, USE, gains internes, stockage), la bibliographie nous donne que des méthodes globales et indépendantes du temps. Il n’est donc pas possible d’envisager une méthode correspondant au pas de temps souhaité. Ceci impose la mise au point d’une méthode prédictive et apprenante dont nos modèles de simulation énergétique seront le point de référence. Il n’en reste pas moins que ces modèles permettent la compréhension du comportement énergétique du système. L’outil se devra non intrusif, personnalisé, robuste et simple. Pour limiter le caractère intrusif de l’outil, il s’agit à la fois d’ajouter de l’intelligence comme par exemple l’identification des appareils utiles à partir d’un seul point de mesure mais aussi la collection et l’analyse d’informations localement. Les données privées ne sont pas transmises vers l’extérieur. Seules les informations de prédictions énergétiques sont envoyées à un niveau supérieur pour agrégation des données des quartiers. L’intelligence est également au niveau des prédictions réalisées issues de méthodes d’apprentissage comme l’utilisation des réseaux de neurones ou des arbres de décision. La robustesse est étudiée d’un point de vue technologie (plusieurs protocoles de communication ont été testés), techniques (plusieurs méthodes de collecte) et d’un point de vue du stockage de données (limiter la fréquence de collecte). La simplicité d’usage engendre une simplicité d’installation minimiser le nombre de données d’entrée tout en gardant une précision souhaitable sera notre principal axe d’optimisation. / This work presents a data-intensive solution to manage energy flux after a low transformer voltage named microgrid concept. A microgrid is an aggregation of building with a decentralized energy production and or not a storage system. These microgrid can be aggregate to create an intelligent virtual power plant. However, many problems must be resolved to increase the part of these microgrid and the renewable resource in a energy mix. The physic model can not integrate and resolve in a short time the quickly variations. The intelligent district can be integrate a part of flexibility in their production with a storage system. This storage can be electrical with a battery or thermal with the heating and the hot water. For a virtual power plant, the system can be autonomous when the price electricity prediction is low and increase the production provided on the market when the price electricity is high. For a energy supplier and with a decentralized production building distant of a low transformer voltage, a regulation with a storage capacity enable a tension regulation. Finally, the auto-consumption becomes more and more interesting combined with a low electrical storage price and the result of the COP 21 in Paris engage the different country towards the energy transition. In these cases, a flexibility is crucial at the building level but this flexibility is possible if, and only if, the locally prediction are correct to manage the energy. The main novelties of our approach is to provide an easy implemented and flexible solution to predict the consumption and the production at the building level based on the machine learning technique and tested on the real use cases in a residential and tertiary sector. A new evaluation of the consumption is realized: the point of view is energy and not only electrical. The energy consumption is decomposed between the heating consumption, the hot water consumption and the electrical devices consumption. A prediction every hour is provided for the heating and the hot water consumption to estimate the thermal storage capacity. A characterization of Electrical devices consumption is realized by a non-intrusive disaggregation from the global load curve. The heating and the hot water are identify to provide a non intrusive methodology of prediction. Every day, the heating, the hot water, the household appliances, the cooling and the stand by are identified. Every 15 minutes, our software provide a hot water prediction, a heating prediction, a decentralized prediction and a characterization of the electrical consumption. A comparison with the different physic model simulated enable an error evaluation the error of our different implemented model.
178

First peopling of the Americas : modelling the palaeo-landscape and potential Upper Palaeolithic human migration routes

Igrejas Lopes Martins Costa, Catharina 05 1900 (has links)
Le peuplement des Amériques fut le dernier grand événement migratoire de Homo sapiens et nous méconnaissons toujours les détails à son sujet. Des débats surgissent concernant l’environnement, les populations concernées, ainsi que les cultures impliquées. Malheureusement, des biais scientifiques persistent quant à la chronologie de cet événement et il peut donc être difficile de proposer quelque chose de nouveau. Avec ArcMap 10.7.1, nous présentons de nouveaux modèles de migrations terrestres basés sur les sentiers de moindre effort, retraçant les routes potentielles que les humains ont pu utiliser afin d’arriver en Amérique au cours du Pléistocène; nous surlignons les facteurs environnementaux, génétiques et archéologiques spécifiques qui doivent être considérés pour les modèles futurs, et nous présentons deux trajets de migration qui auraient pu avoir été utilisé pendant le Paléolithique Supérieur, élucidant par conséquent comment les humains sont arrivés pour la première fois dans le continent américain. / The peopling of the Americas was the last great dispersal event of our species, Homo sapiens, and there is still so much we do not know about it. Debates arise concerning the environment, the populations involved, as well as the cultural or physical markers they might have left behind. Unfortunately, the debate concerning the First Peopling of North America is marked by scientific biases and it can thus be difficult to propose something new. Through ArcMap 10.7.1, we present a Least Cost model of terrestrial migrations from Asia to America, we highlight the specific environmental, genetic and archaeological factors that need to be considered in future models, and present two migration paths that could have been used during the Late Pleistocene, thus shedding light onto how humans first arrived in the American continent.
179

Désalignement des usages du système d'information dans la création et la propagation des difficultés au sein des PME : cas du secteur agro-alimentaire.

Drain, Marie-Cécile 21 January 2014 (has links) (PDF)
Cette thèse en sciences de gestion a pour objet de prendre la mesure du rôle du système d'information dans le déclenchement et la propagation des difficultés que rencontrent les petites et moyennes entreprises du secteur agro-alimentaire en France. Nous étudions le lien entre le désalignement des usages du système d'information et les difficultés que peuvent rencontrer les PME.Le terrain est constitué, d'un côté, par des enquêtes d'entreprises qui permettent de construire un indicateur synthétique de performances et, de l'autre côté, par l'enquête COI-TIC de 2006 dont nous obtenons quatre jeux d'indicateurs liés à l'usage du système d'information.À l'aide d'une démarche compréhensive, nous caractérisons ainsi le rôle du système d'information et son désalignement dans les dynamiques de performances. Nous montrons, au cas des PME des IAA, notamment l'importance de la coordination électronique (inter entreprise et entre les parties prenantes) et la place majeure des changements impliquant des projets informatiques. Enfin, les entreprises, quelles que soient leurs performances, rencontrent d'importantes difficultés d'appropriation des usages du système d'information.
180

Un cadre possibiliste pour l'aide à la décision multicritère et multi-acteurs - Application au marketing et au benchmarking de sites e-commerce

Denguir, Afef 12 March 2007 (has links) (PDF)
Cette thèse se situe dans le cadre d'un processus d'aide à la décision multicritère et multi-acteurs. Elle porte sur la gestion de certains aspects de l'incertitude inhérente à l'évaluation multicritère dans un tel processus. Nous proposons à cet égard une modélisation et une formalisation mathématique de ce processus via une représentation possibiliste des évaluations. Nous avons également proposé de caractériser les distributions de possibilité relatives aux évaluations des différents critères par un ensemble d'indicateurs de description tels que l'imprécision, la divergence, etc., permettant ainsi une interprétation quantitative plus aisée pour le décideur. Nous avons considéré des opérateurs d'agrégation de la famille de l'intégrale de Choquet pour propager les distributions d'évaluations de critère ainsi que les indicateurs de description de distribution, en raison de leur capacité à prendre en compte des interactions entre les critères tout en gardant un caractère de moyenne “généralisée” aisément compréhensible par le décideur. Concernant la propagation des indicateurs, nous avons établi deux théorèmes clés, l'un portant sur l'union des valeurs supérieures et inférieures de l'intervalle moyen d'une distribution de possibilité et l'autre sur l'imprécision moyenne d'une distribution de possibilité la définissant comme la somme des imprécisions moyennes de distributions partielles adjacentes dont elle est l'union. Par ailleurs, Le concept d'explication de la décision a particulièrement constitué le noyau de notre modèle de processus d'aide à la décision. Ainsi à partir des théorèmes établis, nous avons proposé des fonctionnalités explicatives basées sur une quantification de la contribution d'indicateurs décisionnels des évaluations de critères à l'évaluation globale. Nous avons ainsi montré que chaque indicateur relatif à la distribution de l'évaluation globale s'écrit simplement comme une somme pondérée de contributions de critères. Sur le plan applicatif, nous nous sommes intéressés à la formalisation du processus de gestion de mesures de satisfaction de clients dans le contexte de la e-recommandation pour le e-commerce. Nous avons présenté une méthode d'évaluation multicritère des sites de e-commerce par une communauté d'internautes qui permet à la fois de prendre en compte l'importance relative des critères d'évaluation et les interactions entre ceux-ci, mais aussi de gérer différents aspects de l'incertitude inhérents à ce processus d'évaluation. Nous avons développé un prototype logiciel servant de support d'aide à la décision. Cet outil labellisé “Feedback Based Recommendation System” (FBRS) permet de fournir aux managers d'un site de e-commerce, en particulier les équipes marketing et benchmarking, des éléments qui leur permettent de comprendre les scores qui ont été attribués à leur site lors de l'évaluation par les clients. Nous avons montré comment il est alors possible d'identifier les critères les plus influents dans cette évaluation et comment utiliser cette analyse de contributions à des fins de suivi et de management des performances par les responsables marketing et benchmarking. Ces fonctionnalités sont ainsi une base de travail pour ces derniers pour améliorer les stratégies existantes.

Page generated in 0.1516 seconds