• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1451
  • 532
  • 294
  • 170
  • 155
  • 116
  • 48
  • 44
  • 43
  • 29
  • 26
  • 20
  • 20
  • 20
  • 20
  • Tagged with
  • 3621
  • 632
  • 513
  • 483
  • 389
  • 378
  • 364
  • 314
  • 293
  • 290
  • 239
  • 239
  • 239
  • 228
  • 216
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
821

Propositions de méthodes pour adapter le réseau aux contraintes d'applicatons temps-réel / Propositions of methods to adapt the network to real-time applications constraints

Diouri, Idriss 15 October 2010 (has links)
L'étude des Systèmes Contrôlés en Réseaux (SCR) repose sur l'identification des exigences de fonctionnement de l'application appelées Qualité de Contrôle (QdC) et sur l'évaluation de la Qualité de Service (QdS) offerte par le réseau. Les travaux sur les SCR se repartissent selon deux approches : la commande en réseau et la commande de réseau. Cette thèse se positionne sur la deuxième approche avec une recherche axée sur la modélisation des mécanismes d'ordonnancement implémentés dans les équipements réseau et notamment dans les commutateurs Ethernet qui sont de plus en plus utilisés dans les applications industrielles. Ce travail de recherche étudie plus particulièrement comme paramètre de QdS, les délais qui engendrent des perturbations sur le système commandé. Cette thèse propose deux modèles de classification de service reposant sur des ordonnanceurs WRR (Weighted Round Robin). La première modélisation suit une approche constructive en utilisant la théorie du calcul réseau. La seconde s'appuie sur une phase d'identification à partir de simulations numériques et de la logique floue. Dans les deux cas, le but est d'offrir une bande passante suffisante pour le trafic contraint temporellement tout en maximisant la bande passante dédiée aux autres trafics pour éviter des effets famine. L'approche calcul réseau permet de configurer le réseau hors-ligne pour répondre à des contraintes temporelles strictes du SCR. La solution basée sur la logique floue autorise une commande dynamique de l'ordonnanceur pour ajuster en ligne le réseau en fonction des variations du trafic. Elle ne peut s'appliquer qu'à des SCR ayant des contraintes de temps souples / The study of the Networked Control Systems (NCS) is based both on the identification of the application functioning requirements called Quality of Control (QoC) and on the evaluation of the Quality of Service (QoS) offered by the network. The studies on the NCS are classified according to two approaches: the control over network and the control of network. This thesis addresses the second approach and models the scheduling mechanisms implemented in the Ethernet switches that are more and more used in the industrial applications. The specific QoS parameter studied in this thesis is the delay disturbing the controlled system. This thesis proposes two models of classification of service based on WRR (Weighted Round Robin) schedulers. The first modeling follows a constructive approach by using the network calculus theory. The second is based on an identification step from numerical simulations and from the fuzzy logic. In the two cases, the purpose is both to offer enough bandwidth for the time constrained traffic and to maximize the bandwidth dedicated to the others traffics to avoid famine effects. The network calculus approach is used to configure off-line the network in respecting the NCS strict time constraints. The solution based on the fuzzy logic enables a dynamic control of the scheduler in order to tune on-line the network according to the traffic variations. This latter can be applied only to NCS with soft time constraints
822

Vérification dynamique formelle de propriétés temporelles sur des applications distribuées réelles / Dynamic formal verification of temporal properties on legacy distributed applications

Guthmuller, Marion 29 June 2015 (has links)
Alors que l'informatique est devenue omniprésente dans notre société actuelle, assurer la qualité d'un logiciel revêt une importance grandissante. Pour accroître cette qualité, l'une des conditions à respecter est la correction du système. Dans cette thèse, nous nous intéressons plus particulièrement aux systèmes distribués mettant en œuvre un ou plusieurs programmes exécutés sur plusieurs machines qui communiquent entre elles à travers le réseau. Dans ce contexte, assurer leur correction est rendu plus difficile par leur hétérogénéité mais également par leurs spécificités communes. Les algorithmes correspondants sont parfois complexes et la prédiction de leur comportement difficilement réalisable sans une étude avancée. Les travaux réalisés au cours de cette thèse mettent en œuvre la vérification dynamique formelle de propriétés temporelles sur des applications distribuées. Cette approche consiste à vérifier l'implémentation réelle d'une application à travers son exécution. L'enjeu majeur est de réussir à appliquer les techniques associées au Model checking dans le cadre d'une vérification sur des implémentations réelles d'applications distribuées et non plus sur des modèles abstraits. Pour cela, nous proposons dans un premier temps une analyse sémantique dynamique par introspection mémoire d'un état système permettant de détecter des états sémantiquement identiques. Puis, nous mettons en œuvre la vérification dynamique formelle de certaines propriétés temporelles : les propriétés de vivacité, formulées à l'aide de la logique LTL_X, et le déterminisme des communications dans les applications MPI. Une évaluation de chacune de ces contributions est réalisée à travers plusieurs expériences / While computers have become ubiquitous in our current society, ensuring the software quality takes on an increasing importance. One of the requirements to enhance this quality is the system correctness. In this thesis, we are particularly interested in distributed systems implementing one or more programs executed on several machines which communicate with each other through a network. Ensuring the system correctness is more difficult in this context, due to their heterogeneity but also their common characteristics. Corresponding algorithms are sometimes complex and the prediction of their behavior may be difficult to realize without an advanced study. The work done during this thesis implement the dynamic formal verification of some temporal properties on legacy distributed applications. This approach consists of checking the real implementation of an application by its systematic execution. The challenge in this approach is how to apply the methods derived from Model checking in the context of the verification of legacy distributed applications (without access to source code) and no longer on abstract models. For that, we propose in a first step a dynamic semantic analysis of a system state permitting the detection of identical states. Then, we implement the dynamic formal verification of some temporal properties: liveness properties, specified with the LTL_X logic, and the communications determinism in MPI applications. These contributions are experimentaly validated and evaluated with different series of experiments
823

Concevoir un produit pour plusieurs vies : Propositions pour la conception et l'évaluation environnementales de solutions en cascade / Design for several product lives : Propositions for the design and environmental assessment of repurposed products

Bauer, Tom 17 October 2018 (has links)
Ces travaux de thèse s’intéressent à une stratégie de fin de vie naissante : le repurposing. Nous le définissons comme un processus industriel par lequel des produits en fin d’usage sont réutilisés dans des applications distinctes. À la fin de leur premier usage, les produits sont réintégrés dans la chaine industrielle en vue d’une nouvelle utilisation dans une autre application. On parle également d’utilisations en cascade. Le but avoué est la conservation de la valeur-ajoutée des produits, aussi longtemps que possible. Cette stratégie s’inscrit aux côtés d’autres stratégies de réutilisation plus connues telles que le réemploi et le remanufacturing.L’illustration principale de la littérature, qui constitue également notre terrain d’étude, concerne les batteries au lithium. Utilisées initialement dans les véhicules électriques, elles sont aujourd’hui recyclées lorsque leurs capacités de stockage diminuent de 20 à 30%. Prolonger leur durée de vie par une seconde application, e.g. un usage stationnaire, permettrait de différer les étapes de recyclage tout en maximisant le maintien de la valeur ajoutée lors de la fabrication. Malgré ces avantages, les exemples de transformations de produits pour des applications en cascade restent à l’état de démonstrateurs, en particulier parce qu’aujourd’hui ces produits et leur chaine de valeur ne sont pas conçus avec des stratégies supportant leur réutilisation.L’objectif de ces travaux est d’apporter aux équipes de conception une vision claire de ce qu’est la stratégie de réutilisation en cascade, de comment l’intégrer lors des étapes amont du processus de conception et de guider l’évaluation environnementale correspondante, afin de les accompagner pour une réelle industrialisation des produits repurposés. En ce sens, nous émettons trois propositions.La première consiste en une classification des caractéristiques propres aux solutions en cascade selon trois axes : le produit, le processus de (re)fabrication et le modèle d’affaire envisagé. À travers ce cadre, nous décrivons les dimensions et les caractéristiques des offres de produits repurposés. Elles sont alors utilisables pour l’établissement de compromis dès les phases amont de conception. Celles-ci sont issues d’une étude bibliographique couplée à des études de terrain.Notre deuxième proposition concerne le processus de conception de tels produits. En effet, plusieurs spécificités sont à prendre en compte en comparaison d’une activité de conception classique : récupération du produit en fin d’usage, applications ultérieures pas ou peu définies, besoins flous, usage influençant les performances, etc. Une étape de conception pour les produits repurposés devra donc être intégrée en amont du processus de repurposing afin d’optimiser les solutions ultérieures. En complément, plusieurs recommandations pour la conception d’un produit repurposé sont formulées. Intégrées au plus tôt, elles visent à faciliter la réutilisation des produits en tenant compte des parties-prenantes, des phases du cycle de vie, des aspects temporels et en gérant mieux l’information.Enfin, un cadre générique structurant la réalisation d’analyses du cycle de vie de ces solutions est proposé. Les ACVistes pourront ainsi plus facilement tenir compte des spécificités de ces stratégies, car la complexité des modélisations ACV pour les produits aux applications en cascade nécessite davantage de rigueur et de précision que pour des produits à application unique. Pour supporter ce cadre, trois recommandations à destination des équipes de conception sont émises. Elles permettent la formalisation d'éléments de contexte pour améliorer la comparaison avec d’autres études et d’informations en vue des analyses de sensibilité.Ces trois propositions sont implémentées sur deux cas d’étude ‘batterie’, au cours de séances de travail regroupant des parties-prenantes de l’ensemble du cycle de vie : commanditaire, équipes de conception, logisticiens, recycleur, etc. / This PhD dissertation focuses on an innovative end-of-life strategy: repurposing. We define ‘repurposing’ as a manufacturing process through which products nearing their end-of-life are reused in different applications. At the end of their intended use, products are reintegrated into the manufacturing chain and adapted for their next application. We also refer to this strategy as cascading application reuse (CAR). The main purpose of CAR is the preservation of the added-value of such products. This strategy is in line with other reuse strategies such as direct reuse and remanufacturing.The central illustration in our case study addresses lithium-ion batteries used in electric vehicles, which are recycled when the battery’s charging capacity falls below 80%. Extending the component lifespan with a second application, e.g. stationary application, postpones introduction into the waste stream, retaining the added-value from the original manufacturing process. Despite these advantages, examples of product adaptation for CAR remain at a proof-of-concept scale - currently these products and their value chains are not yet designed with strategies supporting reuse.The objective of this research is to provide a clear vision to design teams about repurposing strategies, how to integrate the strategies during the upstream stages of the design process and how to facilitate the corresponding lifecycle assessment. The objective is to support designers during the manufacturing of repurposed products. We make three proposals.The first consists of classifying the characteristics specific to the repurposing strategy according to three axes: the product, the (re)manufacturing process and the business model. Through this framework, we describe the dimensions and characteristics of what the repurposed product offers, which are integral during the design activity. These attributes are the result of a study of the relevant literature coupled with several field investigations.Our second proposal concerns the design process for such products. Indeed, several differences with classical design practices appear: the need for product recovery at the end of use, subsequent applications and needs not fully defined, which affect performance, etc. A design stage for repurposed products must therefore be integrated before subsequent applications in order to optimise redesign solutions. Integrated as early as possible, they aim to facilitate product reuse by taking into account stakeholders, life cycle phases, time aspects and better information management.Finally, a generic framework structuring the carrying out of life cycle analyses of repurposing is proposed. This will simplify the inclusion of their specificities for life cycle assessments (LCA) practitioners. Indeed, the complexity of LCA modelling for cascading applications products requires more rigour and precision than single application products. To support this framework, three recommendations for design teams are made, the objective of which is to better formalise the information from the design process. These recommendations support the formalisation of contextual elements to improve comparison with other studies and the organisation of information for sensitivity analyses.These three proposals are implemented on two battery case studies, during working sessions involving stakeholders representing the complete life cycle: sponsor, design teams, logisticians, recycler, etc.
824

Dynamic Software Update for Production and Live Programming Environments / Mise à jour Dynamique pour Environnemts de Production et Programmation Interactive

Tesone, Pablo 17 December 2018 (has links)
Mettre à jour des applications durant leur exécution est utilisé aussi bien en production pour réduire les temps d’arrêt des applications que dans des environnements de développement interactifs (IDE pour live programming). Toutefois, ces deux scénarios présentent des défis différents qui font que les solutions de mise à jour dynamique (DSU pour Dynamic Software Updating) existantes sont souvent spécifiques à l’un des deux. Par exemple, les DSUs pour la programmation interactives ne supportent généralement pas la détection automatique de points sûrs de mise à jour ni la migration d’instances, alors que les DSUs pour la production nécessitent une génération manuelle de l’ensemble des modifications et manquent d’intégration avec l’IDE. Les solutions existantes ont également une capacité limitées à se mettre à jour elles-mêmes ou à mettre à jour les bibliothèques de base du langage ; et certaines d’entre elles introduisent mêmle une dégradation des performances d’exécution en dehors du processus de mise à jour.Dans cette thèse, nous proposons un DSU (nommé gDSU) unifié qui fonctionne à la fois pour la programmation interactive et les environnements de production. gDSU permet la détection automatique des points sûrs de mise à jour en analysant et manipulant la pile d’exécution, et offre un mécanisme réutilisable de migration d’instances afin de minimiser les interventions manuelles lors de l’application d’une migration. gDSU supporte également la mise à jour des bibliothèques du noyau du langage et du mécanisme de mise à jour lui-même. Ceci est réalisé par une copie incrémentale des objets à modifier et une application atomique de ces modifications.gDSU n’affecte pas les performances globales de l’application et ne présente qu’une pénalité d’exécution lors processus de mise à jour. Par exemple, gDSU est capable d’appliquer une mise à jour sur 100 000 instances en 1 seconde. Durant cette seconde, l’application ne répond pas pendant 250 milli-secondes seulement. Le reste du temps, l’application s’exécute normalement pendant que gDSU recherche un point sûr de mise à jour qui consiste alors uniquement à copier les éléments modifiés.Nous présentons également deux extensions de gDSU permettant un meilleur support du développement interactif dans les IDEs : la programmation interactive transactionnelle et l’application atomique de reusinages (refactorings). / Updating applications during their execution is used both in production to minimize application downtine and in integrated development environments to provide live programming support. Nevertheless, these two scenarios present different challenges making Dynamic Software Update (DSU) solutions to be specifically designed for only one of these use cases. For example, DSUs for live programming typically do not implement safe point detection or insistance migration, while production DSUs require manual generation of patches and lack IDE integration. These sollutions also have a limited ability to update themselves or the language core libraries and some of them present execution penalties outside the update window.In this PhD, we propose a unified DSU named gDSU for both live programming and production environments. gDSU provides safe update point detection using call stack manipulation and a reusable instance migration mechanism to minimize manual intervention in patch generation. It also supports updating the core language libraries as well as the update mechanism itself thanks to its incremental copy of the modified objects and its atomic commit operation.gDSU does not affect the global performance of the application and it presents only a run-time penalty during the window. For example, gDSU is able to apply an update impacting 100,000 instances in 1 second making the application not responsive for only 250 milliseconds. The rest of the time the applications runs normally while gDSU is looking for a safe update point during which modified elements will be copied.We also present extensions of gDSU to support transactional live programming and atomic automactic refactorings which increase the usability of live programming environments.
825

Estimation des limites d'extrapolation par les lois de valeurs extrêmes. Application à des données environnementales / Estimation of extrapolation limits based on extreme-value distributions.Application to environmental data.

Albert, Clément 17 December 2018 (has links)
Cette thèse se place dans le cadre de la Statistique des valeurs extrêmes. Elle y apporte trois contributions principales. L'estimation des quantiles extrêmes se fait dans la littérature en deux étapes. La première étape consiste à utiliser une approximation des quantiles basée sur la théorie des valeurs extrêmes. La deuxième étape consiste à estimer les paramètres inconnus de l'approximation en question, et ce en utilisant les valeurs les plus grandes du jeu de données. Cette décomposition mène à deux erreurs de nature différente, la première étant une erreur systémique de modèle, dite d'approximation ou encore d'extrapolation, la seconde consituant une erreur d'estimation aléatoire. La première contribution de cette thèse est l'étude théorique de cette erreur d'extrapolation mal connue.Cette étude est menée pour deux types d'estimateur différents, tous deux cas particuliers de l'approximation dite de la "loi de Pareto généralisée" : l'estimateur Exponential Tail dédié au domaine d'attraction de Gumbel et l'estimateur de Weissman dédié à celui de Fréchet.Nous montrons alors que l'erreur en question peut s'interpréter comme un reste d'ordre un d'un développement de Taylor. Des conditions nécessaires et suffisantes sont alors établies de telle sorte que l'erreur tende vers zéro quand la taille de l'échantillon augmente. De manière originale, ces conditions mènent à une division du domaine d'attraction de Gumbel en trois parties distinctes. En comparaison, l'erreur d'extrapolation associée à l'estimateur de Weissman présente un comportement unifié sur tout le domaine d'attraction de Fréchet. Des équivalents de l'erreur sont fournis et leur comportement est illustré numériquement. La deuxième contribution est la proposition d'un nouvel estimateur des quantiles extrêmes. Le problème est abordé dans le cadre du modèle ``log Weibull-tail'' généralisé, où le logarithme de l'inverse du taux de hasard cumulé est supposé à variation régulière étendue. Après une discussion sur les conséquences de cette hypothèse, nous proposons un nouvel estimateur des quantiles extrêmes basé sur ce modèle. La normalité asymptotique dudit estimateur est alors établie et son comportement en pratique est évalué sur données réelles et simulées.La troisième contribution de cette thèse est la proposition d'outils permettant en pratique de quantifier les limites d'extrapolation d'un jeu de données. Dans cette optique, nous commençons par proposer des estimateurs des erreurs d'extrapolation associées aux approximations Exponential Tail et Weissman. Après avoir évalué les performances de ces estimateurs sur données simulées, nous estimons les limites d'extrapolation associées à deux jeux de données réelles constitués de mesures journalières de variables environnementales. Dépendant de l'aléa climatique considéré, nous montrons que ces limites sont plus ou moins contraignantes. / This thesis takes place in the extreme value statistics framework. It provides three main contributions to this area. The extreme quantile estimation is a two step approach. First, it consists in proposing an extreme value based quantile approximation. Then, estimators of the unknown quantities are plugged in the previous approximation leading to an extreme quantile estimator.The first contribution of this thesis is the study of this previous approximation error. These investigations are carried out using two different kind of estimators, both based on the well-known Generalized Pareto approximation: the Exponential Tail estimator dedicated to the Gumbel maximum domain of attraction and the Weissman estimator dedicated to the Fréchet one.It is shown that the extrapolation error can be interpreted as the remainder of a first order Taylor expansion. Necessary and sufficient conditions are then provided such that this error tends to zero as the sample size increases. Interestingly, in case of the so-called Exponential Tail estimator, these conditions lead to a subdivision of Gumbel maximum domain of attraction into three subsets. In constrast, the extrapolation error associated with Weissmanestimator has a common behavior over the whole Fréchet maximum domain of attraction. First order equivalents of the extrapolation error are thenderived and their accuracy is illustrated numerically.The second contribution is the proposition of a new extreme quantile estimator.The problem is addressed in the framework of the so-called ``log-Generalized Weibull tail limit'', where the logarithm of the inverse cumulative hazard rate function is supposed to be of extended regular variation. Based on this model, a new estimator of extreme quantiles is proposed. Its asymptotic normality is established and its behavior in practice is illustrated on both real and simulated data.The third contribution of this thesis is the proposition of new mathematical tools allowing the quantification of extrapolation limits associated with a real dataset. To this end, we propose estimators of extrapolation errors associated with the Exponentail Tail and the Weissman approximations. We then study on simulated data how these two estimators perform. We finally use these estimators on real datasets to show that, depending on the climatic phenomena,the extrapolation limits can be more or less stringent.
826

Ingéniérie dirigée par les modèles pour la gestion de la variabilité dans le test d'applications mobiles / Model-Driven Engineering for Variability Management in Mobile Application Testing

Ridene, Youssef 23 September 2011 (has links)
L'engouement du grand public pour les applications mobiles, dont le nombre ne cessede croître, a rendu les utilisateurs de plus en plus exigeants quant à la qualité de cesapplications. Seule une procédure de test efficace permet de répondre à ces exigences.Dans le contexte des applications embarquées sur téléphones mobiles, le test est unetâche coûteuse et répétitive principalement à cause du nombre important de terminauxmobiles qui sont tous différents les uns des autres.Nous proposons dans cette thèse le langage MATeL, un DSML (Domain-Specific ModelingLanguage) qui permet de d’écrire des scénarios de test spécifiques aux applicationsmobiles. Sa syntaxe abstraite, i.e. un méta modèle et des contraintes OCL, permet auconcepteur de manipuler les concepts métier du test d'applications mobiles (testeur, mobileou encore résultats attendus et résultats obtenus). Par ailleurs, il permet d'enrichirces scénarii avec des points de variabilité qui autorisent de spécifier des variations dansle test en fonction des particularités d'un mobile ou d'un ensemble de mobiles. La syntaxeconcrète de MATeL, qui est inspirée de celle des diagrammes de séquence UML,ainsi que son environnement basé sur Eclipse permettent à l'utilisateur de concevoir desscénarii relativement facilement.Grâce à une plateforme de test en ligne construite pour les besoins de notre projet,il est possible d'exécuter les scénarii sur plusieurs téléphones différents. La démarcheest illustrée dans cette thèse à travers des cas d'utilisation et des expérimentations quiont permis de vérifier et valider notre proposition. / Mobile applications have increased substantially in volume with the emergence ofsmartphones. Ensuring high quality and successful user experience is crucial to the successof such applications. Only an efficient test procedure allows developers to meet these requirements. In the context of embedded mobile applications, the test is costly and repetitive. This is mainly due to the large number of different mobile devices. In this thesis, we describe MATeL, a Domain-Specific Modeling Language (DSML) for designing test scenarios for mobile applications. Its abstract syntax, i.e. a meta model and OCL constraints, enables the test designer to manipulate mobile applications testing concepts such as tester, mobile or outcomes and results. It also enables him/her to enrich these scenarios with variability points in the spirit of Software Product-Line engineering, that can specify variations in the test according to the characteristics of one mobile or a set of mobiles. The concrete syntax of MATeL that is inspired from UML sequence diagrams and its environment based on Eclipse allow the user to easily develop scenarios. MATeL is built upon an industrial platform (a test bed) in order to be able to run scenarios on several different phones. The approach is illustrated in this thesis through use cases and experiments that led to verify and validate our contribution.
827

Les sites d'informations touristiques sur le web en Afrique de l'Ouest francophone : le cas particulier du Bénin / Tourism-focused web sites in french-speaking Western Africa : a case study of Benin

Ahouandjinou, Géraud 20 December 2013 (has links)
Les pays africains font, depuis près de deux décennies, l’expérience des technologies de l’information et de la communication. L’entrée dans la société de l’information est vue par plusieurs chercheurs comme étant une chance pour développer l’Afrique. Mais, pour l’instant, des difficultés socio-économiques freinent les politiques et les actions initiées pour mettre les systèmes d’information au service du développement. La situation varie d’un pays à un autre. Un constat est toutefois évident, l’Afrique du Sud et le Maroc ont pris de l’avance sur les pays situés au sud du Sahara dans l'industrialisation de leur tourisme en lien avec une utilisation efficace des technologies de l'information. Le Bénin est l'un des premiers pays de l’Afrique de l’Ouest francophone à être connecté à Internet. Il peine pourtant aujourd'hui à entrer totalement dans l’ère du numérique. La défectuosité et l’absence d’infrastructures de télécommunications, l'absence d'un cadre règlementaire et juridique cohérent, l’incapacité des populations à accéder aux équipements informatiques et aux services, le manque d’experts locaux… expliquent ce retard. Mettre Internet au service de ses richesses culturelles et touristiques est pourtant un créneau porteur et un nouveau défi de développement pour ce pays. Le tourisme y est en effet la deuxième source de revenus et contribue pour 2% au PIB du Bénin. La présente étude propose un état des lieux du secteur touristique béninois et de sa présence sur le web. Elle s'est particulièrement intéressée à la meilleure façon de transformer les innombrables attraits du pays en véritables atouts. Ce travail comprend deux parties. La première fait le point de la situation du tourisme dans le monde et en Afrique et pose les contours de la problématique des TIC vues comme tremplin de son développement. La seconde partie axée sur le Bénin, invite à une lecture descriptive et analytique du pays, en partant de ses données générales pour évaluer sa politique touristique, ses résultats / Tourism-focused web sites in French-speaking Western Africa, a case study of Benin. For nearly two decades now, African countries have been experimenting with information technology and communication. This entry into the information society is seen by many researchers as an opportunity to develop Africa. But, for now, socio-economic difficulties are hindering policies and actions conducted to use information systems for development purposes. The situation varies from one country to another. South Africa and Morocco, for example, have been clearly more successful than countries south of the Sahara in their tourism industrialization policies, putting information technology to good use. Benin is one of the first countries in French-speaking West Africa to be connected to the Internet. It is, however, struggling to get more of a foothold into the digital age. The defective and lacking telecommunications infrastructure, the lack of a coherent legal and regulatory framework, people’s inability to access computer equipment and services, the lack of local experts ... are all reasons for the delay. Internet could be a catalyst to promote culture and tourism in Benin and is one of the country’s development challenges today. Tourism is in fact the second largest source of income and contributes to 2% of Benin’s GDP.This study is an inventory of Benin’s tourism industry and its presence on the Web. It focuses in particular on the best way to turn the country’s countless attractions into real assets. This work is made up of two sections. The first provides an overview of the situation of tourism in the world and in Africa. It develops the topic and the issues of ICTs, seen as a springboard for development in Africa. The second part focuses on Benin. It provides descriptions and an analysis of the country, using as a starting point its general data to assess its tourism policy, its results and its outlook for growth, mainly through Internet. The methodological basis of this research includes a literature review, observations, field surveys and Web mapping.
828

Energy consumption optimization of parallel applications with Iterations using CPU frequency scaling / Optimisation de la consommation énergétique des applications parallèles avec des itérations en utilisant réduisant la fréquence des processeurs

Fanfakh, Ahmed Badri Muslim 17 October 2016 (has links)
Au cours des dernières années, l'informatique “green” est devenue un sujet important dans le calcul intensif. Cependant, les plates-formes informatiques continuent de consommer de plus en plus d'énergie en raison de l'augmentation du nombre de noeuds qui les composent. Afin de minimiser les coûts d'exploitation de ces plates-formes de nombreuses techniques ont été étudiées, parmi celles-ci, il y a le changement de la fréquence dynamique des processeurs (DVFS en anglais). Il permet de réduire la consommation d'énergie d'un CPU, en abaissant sa fréquence. Cependant, cela augmente le temps d'exécution de l'application. Par conséquent, il faut trouver un seuil qui donne le meilleur compromis entre la consommation d'énergie et la performance d'une application. Cette thèse présente des algorithmes développés pour optimiser la consommation d'énergie et les performances des applications parallèles avec des itérations synchrones et asynchrones sur des clusters ou des grilles. Les modèles de consommation d'énergie et de performance proposés pour chaque type d'application parallèle permettent de prédire le temps d'exécution et la consommation d'énergie d'une application pour toutes les fréquences disponibles.La contribution de cette thèse peut être divisé en trois parties. Tout d'abord, il s'agit d'optimiser le compromis entre la consommation d'énergie et les performances des applications parallèles avec des itérations synchrones sur des clusters homogènes. Deuxièmement, nous avons adapté les modèles de performance énergétique aux plates-formes hétérogènes dans lesquelles chaque noeud peut avoir des spécifications différentes telles que la puissance de calcul, la consommation d'énergie, différentes fréquences de fonctionnement ou encore des latences et des bandes passantes réseaux différentes. L'algorithme d'optimisation de la fréquence CPU a également été modifié en fonction de l'hétérogénéité de la plate-forme. Troisièmement, les modèles et l'algorithme d'optimisation de la fréquence CPU ont été complètement repensés pour prendre en considération les spécificités des algorithmes itératifs asynchrones.Tous ces modèles et algorithmes ont été appliqués sur des applications parallèles utilisant la bibliothèque MPI et ont été exécutés avec le simulateur Simgrid ou sur la plate-forme Grid'5000. Les expériences ont montré que les algorithmes proposés sont plus efficaces que les méthodes existantes. Ils n’introduisent qu’un faible surcoût et ne nécessitent pas de profilage au préalable car ils sont exécutés au cours du déroulement de l’application. / In recent years, green computing has become an important topic in the supercomputing research domain. However, the computing platforms are still consuming more and more energy due to the increase in the number of nodes composing them. To minimize the operating costs of these platforms many techniques have been used. Dynamic voltage and frequency scaling (DVFS) is one of them. It can be used to reduce the power consumption of the CPU while computing, by lowering its frequency. However, lowering the frequency of a CPU may increase the execution time of the application running on that processor. Therefore, the frequency that gives the best trade-off between the energy consumption and the performance of an application must be selected.This thesis, presents the algorithms developed to optimize the energy consumption and theperformance of synchronous and asynchronous message passing applications with iterations runningover clusters or grids. The energy consumption and performance models for each type of parallelapplication predicts its execution time and energy consumption for any selected frequency accordingto the characteristics of both the application and the architecture executing this application.The contribution of this thesis can be divided into three parts: Firstly, optimizing the trade-offbetween the energy consumption and the performance of the message passing applications withsynchronous iterations running over homogeneous clusters. Secondly, adapting the energy andperformance models to heterogeneous platforms where each node can have different specificationssuch as computing power, energy consumption, available frequency gears or network’s latency andbandwidth. The frequency scaling algorithm was also modified to suit the heterogeneity of theplatform. Thirdly, the models and the frequency scaling algorithm were completely rethought to takeinto considerations the asynchronism in the communication and computation. All these models andalgorithms were applied to message passing applications with iterations and evaluated over eitherSimGrid simulator or Grid’5000 platform. The experiments showed that the proposed algorithms areefficient and outperform existing methods such as the energy and delay product. They also introducea small runtime overhead and work online without any training or profiling.
829

Análise de instabilidade de microssatélites em pacientes com câncer colo-retal (CCR): correlação do fenótipo RER (+) com os aspectos clínicos e histopatológicos / Microsatellite instability analysis in patients with Colorectal Cancer (CRC) of the RER phenotype correlation (+) with clinical and histopathological

Claudia Muraro de Carvalho 08 August 2002 (has links)
A síndrome do câncer de colo-retal hereditário não relacionado a polipose (HNPCC) foi caracterizada na década de 60 e por volta dos anos 90 os critérios de Amsterdam para o diagnóstico clínico de HNPCC foram estabelecidos, envolvendo história familiar em duas gerações sucessivas, com três indivíduos apresentando acometimento do cólon e/ou reto e um dos indivíduos diagnosticados abaixo dos 45 anos. A instabilidade de microssatélites (MSI) começou a ser descrita em 1993 em pacientes portadores do HNPCC, mas é comum em outras neoplasias esporádicas. Em 1996 os critérios de Bethesda, que envolvem o acometimento preferencial do cólon proximal, histologia indiferenciada ou mucosecretora, presença de tumores sincrônicos e metacrônicos ou associação a tumores extracólicos, além da história familiar, foram propostos pelo Grupo Internacional Colaborativo para o estudo do HNPCC (ICG-HNPCC), com o intuito de rastrear maior número de pacientes suspeitos de serem portadores da síndrome. A MSI é caracterizada pela perda ou ganho de unidades repetitivas em regiões do DNA contendo mono, di, tri ou tetranucleotídeos dispostos seguidamente no genoma. No presente estudo, nosso objetivo foi analisar a freqüência de instabilidade de microssatélites (MSI) pela análise de 7 regiões microssatélites (BAT25, BAT26, D5S346, D2S123, D17S250, BAT40, TP53), correlacionando os dados obtidos com algumas características clinicopatológicas dos pacientes. O DNA de 106 pares de amostras de tecido normal e tumor provenientes de portadores de carcinoma colo-retal (CCR), foi estudado mediante a realização da reação em cadeia pela polimerase (PCR), seguida pela análise em gel de poliacrilamida desnaturante. Os pacientes foram divididos em dois grupos, um com 75 pacientes com pelo menos um dos critérios de Bethesda (tumor no cólon proximal, histologia pouco diferenciada, padrão indiferenciado ou mucinoso, idade igual ou inferior a 45 anos, sincronicidade ou metacronicidade dos tumores) e 31 pacientes sem nenhum desses critérios. Dos 106 casos, 14,1% (15/106) apresentaram MSI em 30% ou mais dos marcadores analisados, sendo classificados com instabilidade de microssatélite de alto grau (MSI-H), 17,9% (19/106) dos casos foram classificados com instabilidade de microssatélite de baixo grau (MSI-L) e 67,9% (72/106) com estabilidade de microssatélites (MSS). Se considerarmos apenas a análise do grupo com pelo menos um dos critérios de Bethesda considerados, observamos que 18,6% (14/75) dos casos apresentaram MSI-H, 18,6% (14/75) foram MSI-L e 62,6% (47/75) MSS. No grupo sem nenhum dos critérios de Bethesda analisados, 3,2% (1/31) apresentaram MSI-H, enquanto 16,1% (5/31) e 80,6% (25/31) foram MSI-L e MSS respectivamente. Quando consideramos os marcadores propostos pelo Grupo Colaborativo Internacional para o estudo do HNPCC - ICG-HNPCC (BAT25, BAT26, D5S346, D2S123, D17S250) observamos que no grupo sem critérios de Bethesda passamos a ter apenas casos classificados como MSI-L e MSS. No grupo com pelo menos um dos critérios passamos a ter 21 ,3% (16/75) dos casos classificados com MSI-H e 14,7% (11/75) de casos MSI-L. Os marcadores mais sensíveis para a análise de MSI-H foram BAT25 e BAT26, enquanto os marcadores D17S250 e TP53 foram os mais freqüentes no casos MSI-L. Ao considerarmos os casos com pelo menos um dos critérios de Bethesda e apenas o painel proposto pelo ICG-HNPCC, o marcador BAT25 identificou os casos MSI-H com 100% de sensibilidade e 96,6% de especificidade, enquanto o BAT26 apresentou 93,7% e 98,9% de sensibilidade e especificidade respectivamente. A avaliação dos critérios de Bethesda considerados neste estudo mostrou que a localização proximal do tumor se correlacionou com os casos MSI-H. / The Hereditary Non-Polyposis Colorectal Cancer Syndrome (HNPCC) was characterized in the 60\'s, and the Amsterdam criteria for the clinical HNPCC diagnosis were established in the 90\'s involving the family history of two successive generations with three individuals having their colon and/or rectum affected, one of them having been diagnosed when under 45 years of age. The microsatellite instability (MSI) was first described in 1993 in bearers of HNPCC, but it is common in other sporadic tumors. In 1996, the Bethesda criteria, which include the preferential involvement of the proximal colon, undifferentiated or mucosecretory histology, presence of synchronic and metachronic tumors or association to extracolonic tumors, besides family history, were proposed by the International Colaborative Group for the study of HNPCC (ICG-HNPCC) with the purpose of tracking a higher number of bearers of that syndrome. The MSI is characterized by the loss or gain of repetitive units in DNA regions containing mono-, di-, tri- or tetranucleotides sequentially arranged in the genome. The aim of this paper was to evaluate the frequency MSI by analyzing 7 microsatellite regions (BAT25, BAT26 , D5S346, D2S123, D17S250, BAT40, TP53), and correlating the data so obtained with clinicopathologic characteristics of the patients. The DNA of 106 pairs of samples taken from normal tissues and colorectal carcinomas (CRC) was studied through the polimerase chain reaction (PCR) followed by analysis in denaturing poliacrylamide gel. The patients were separated into two groups, one consisting of 75 patients with at least one of the Bethesda criteria (tumor in the proximal colon, poorly differentiated histology, undifferentiated or mucinous pattern, age equal to or below 45 years, tumor synchronicity or metachronicity) and 31 patients without any of such criteria. From the 106 cases, 14.1% (15/106) exhibited MSI in 30% or more of the markers, then classified as having high microsatellite instability (MSI-H); 17.9% (19/106) were classified as low microsatellite instability (MSI-L) and 67.9% (72/106) as having microsatellite stability (MSS). If we consider only the analysis of the group with at least one of the Bethesda criteria, we observe that 18.6% (14/75) of the cases showed MSI-H, 18.6% were MSI-L and 62.6% (47/75) were MSS. In the group without any of the Bethesda criteria, 3.2% (1/31) showed MSI-H, while 16.1% (5/31) and 80.6% (25/31) were respectively MSI-L and MSS. When we consider the markers proposed by the Intenational Colaborative Group for the study of HNPCC - ICG-HNPCC (BAT25, BAT26, D5S346, D2S123, D17S250), we observe, in the group without Bethesda criteria, only cases which were classified as MSI-L and MSS. In the group with at least one of the Bethesda criteria we find 21.3% (16/75) of the cases classified as MSI-H and 14.7% (11/75) as MSI-L. The most sensitive markers for MSI-H were BAT25 and BAT26, whereas the markers D17S250 and TP53 were the most frequent in MSI-L cases. When the cases with at least one of the Bethesda criteria, were evalueted only with the panel propose by ICG-HNPCC, the BAT25 marker identified MSI-H cases with 100% sensitivity and 96.6% specificity, while the BAT26 exhibited respectively 93,7% and 98,9%. The evaluation of the Bethesda criteria considered in this paper showed that the proximal location of the tumor correlated significantly with the cases of MSI-H.
830

Some visualization models applied to the analysis of parallel applications / Alguns modelos de visualização aplicados para a análise de aplicações paralelas / Quelques modèles de visualisation pour l’analyse des applications parallèles

Schnorr, Lucas Mello January 2009 (has links)
Les systèmes distribués, tels que les grilles, sont utilisés aujourd’hui pour l’exécution des grandes applications parallèles. Quelques caractéristiques de ces systèmes sont l’interconnexion complexe de ressources qui pourraient être présent et de la facile passage à l’échelle. La complexité d’interconnexion vient, par exemple, d’un nombre plus grand de directives de routage pour la communication entre les processus et une latence variable dans le temps. La passage à l’échelle signifie que des ressources peuvent être ajoutées indéfiniment simplement en les reliant à l’infrastructure existante. Ces caractéristiques influencent directement la façon dont la performance des applications parallèles doit être analysée. Les techniques de visualisation traditionnelles pour cette analyse sont généralement basées sur des diagrammes de Gantt que disposent la liste des composants de l’application verticalement et metent la ligne du temps sur l’axe horizontal. Ces représentations visuelles ne sont généralement pas adaptés à l’analyse des applications exécutées en parallèle dans les grilles. La première raison est qu’elles n’ont pas été conçues pour offrir aux développeurs une analyse qui montre aussi la topologie du réseau des ressources. La deuxième raison est que les techniques de visualisation traditionnels ne s’adaptent pas bien quand des milliers d’entités doivent être analysés ensemble. Cette thèse tente de résoudre les problèmes des techniques traditionnelles dans la visualisation des applications parallèles. L’idée principale est d’exploiter le domaine de la visualisation de l’information et essayer d’appliquer ses concepts dans le cadre de l’analyse des programmes parallèles. Portant de cette idée, la thèse propose deux modèles de visualisation : les trois dimensions et le modèle d’agrégation visuelle. Le premier peut être utilisé pour analyser les programmes parallèles en tenant compte de la topologie du réseau. L’affichage lui-même se compose de trois dimensions, où deux sont utilisés pour indiquer la topologie et la troisième est utilisée pour représenter le temps. Le second modèle peut être utilisé pour analyser des applications parallèles comportant un très grand nombre de processsus. Ce deuxième modèle exploite une organisation hiérarchique des données utilisée par une technique appelée Treemap pour représenter visuellement la hiérarchie. Les implications de cette thèse sont directement liées à l’analyse et la compréhension des applications parallèles exécutés dans les systèmes distribués. Elle améliore la compréhension des modes de communication entre les processus et améliore la possibilité d’assortir les motifs avec cette topologie de réseau réel sur des grilles. Bien que nous utilisons abondamment l’exemple de la topologie du réseau, l’approche pourrait être adapté, avec presque pas de changements, à l’interconnexion fourni par un middleware d’une interconnexion logique. Avec la technique d’agrégation, les développeurs sont en mesure de rechercher des patterns et d’observer le comportement des applications à grande échelle. / Sistemas distribuídos tais como grids são usados hoje para a execução de aplicações paralelas com um grande número de processos. Algumas características desses sistemas são a presença de uma complexa rede de interconexão e a escalabilidade de recursos. A complexidade de rede vem, por exemplo, de largura de banda e latências variáveis ao longo do tempo. Escalabilidade é a característica pela qual novos recursos podem ser adicionados em um grid apenas através da conexão em uma infraestrutura pré-existente. Estas características influenciam a forma como o desempenho de aplicações paralelas deve ser analisado. Esquemas tradicionais de visualização de desempenho são usualmente baseados em gráficos Gantt com uma dimensão para listar entidades monitoradas e outra para o tempo. Visualizações como essa não são apropriadas para a análise de aplicações paralelas executadas em grid. A primeira razão para tal é que elas não foram concebidas para oferecer ao desenvolvedor uma análise que mostra a topologia dos recursos e a relação disso com a aplicação. A segunda razão é que técnicas tradicionais não são escaláveis quando milhares de entidades monitoradas devem ser analisadas conjuntamente. Esta tese tenta resolver estes problemas encontrados em técnicas de visualização tradicionais para a análise de aplicações paralelas. A idéia principal consiste em explorar técnicas da área de visualização da informação e aplicá-las no contexto de análise de programas paralelos. Levando em conta isto, esta tese propõe dois modelos de visualização: o de três dimensões e o modelo de agregação visual. O primeiro pode ser utilizado para analisar aplicações levando-se em conta a topologia da rede dos recursos. A visualização em si é composta por três dimensões, onde duas são usadas para mostrar a topologia e a terceira é usada para representar o tempo. O segundo modelo pode ser usado para analisar aplicações paralelas com uma grande quantidade de processos. Ela explora uma organização hierárquica dos dados de monitoramento e uma técnica de visualização chamada Treemap para representar visualmente a hierarquia. Os dois modelos representam uma nova forma de analisar aplicação paralelas visualmente, uma vez que eles foram concebidos para larga-escala e sistemas distribuídos complexos, como grids. As implicações desta tese estão diretamente relacionadas à análise e ao entendimento do comportamento de aplicações paralelas executadas em sistemas distribuídos. Um dos modelos de visualização apresentados aumenta a compreensão dos padrões de comunicação entre processos e oferece a possibilidade de observar tal padrão com a topologia de rede. Embora a topologia de rede seja usada, a abordagem pode ser adaptada sem grandes mudanças para levar em conta interconexões lógicas de bibliotecas de comunicação. Com a técnica de agregação apresentada nesta tese, os desenvolvedores são capazes de observar padrões de aplicações paralelas de larga escala. / Highly distributed systems such as grids are used today for the execution of large-scale parallel applications. Some characteristics of these systems are the complex resource interconnection that might be present and the scalability. The interconnection complexity comes from the different number of hops to provide communication among applications processes and differences in network latencies and bandwidth. The scalability means that the resources can be added indefinitely just by connecting them to the existing infrastructure. These characteristics influence directly the way parallel applications performance must be analyzed. Current traditional visualization schemes to this analysis are usually based on Gantt charts with one dimension to list the monitored entities and the other dimension dedicated to time. These visualizations are generally not suited to parallel applications executed in grids. The first reason is that they were not built to offer to the developer an analysis that also shows the network topology of the resources. The second reason is that traditional visualization techniques do not scale well when thousands of monitored entities must be analyzed together. This thesis tries to overcome the issues encountered on traditional visualization techniques for parallel applications. The main idea behind our efforts is to explore techniques from the information visualization research area and to apply them in the context of parallel applications analysis. Based on this main idea, the thesis proposes two visualization models: the three-dimensional and the visual aggregation model. The former might be used to analyze parallel applications taking into account the network topology of the resources. The visualization itself is composed of three dimensions, where two of them are used to render the topology and the third is used to represent time. The later model can be used to analyze parallel applications composed of several thousands of processes. It uses hierarchical organization of monitoring data and an information visualization technique called Treemap to represent that hierarchy. Both models represent a novel way to visualize the behavior of parallel applications, since they are conceived considering large-scale and complex distributed systems, such as grids. The implications of this thesis are directly related to the analysis and understanding of parallel applications executed in distributed systems. It enhances the comprehension of patterns in communication among processes and improves the possibility of matching this patterns with real network topology of grids. Although we extensively use the network topology example, the approach could be adapted with almost no changes to the interconnection provided by a middleware of a logical interconnection. With the scalable visualization technique, developers are able to look for patterns and observe the behavior of large-scale applications.

Page generated in 0.139 seconds