• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 20
  • 7
  • 1
  • Tagged with
  • 86
  • 30
  • 30
  • 23
  • 18
  • 16
  • 15
  • 13
  • 13
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

De l'exécution structurée d'applications scientifiques OpenMP sur les architectures hiérarchiques.

Broquedis, François 09 December 2010 (has links) (PDF)
Le domaine applicatif de la simulation numérique requiert toujours plus de puissance de calcul. La technologie multicœur aide à satisfaire ces besoins mais impose toutefois de nouvelles contraintes aux programmeurs d'applications scientifiques qu'ils devront respecter s'ils souhaitent en tirer la quintessence. En particulier, il devient plus que jamais nécessaire de structurer le parallélisme des applications pour s'adapter au relief imposé par la hiérarchie mémoire des architectures multicœurs. Les approches existantes pour les programmer ne tiennent pas compte de cette caractéristique, et le respect de la structure du parallélisme reste à la charge du programmeur. Il reste de ce fait très difficile de développer une application qui soit à la fois performante et portable.La contribution de cette thèse s'articule en trois axes. Il s'agit dans un premier temps de s'appuyer sur le langage OpenMP pour générer du parallélisme structuré, et de permettre au programmeur de transmettre cette structure au support exécutif ForestGOMP. L'exécution structurée de ces flots de calcul est ensuite laissée aux ordonnanceurs Cacheet Memory développés au cours de cette thèse, permettant respectivement de maximiser la réutilisation des caches partagés et de maximiser la bande passante mémoire accessible par les programmes OpenMP. Enfin, nous avons étudié la composition de ces ordonnanceurs, et plus généralement de bibliothèques parallèles, en considérant cette voie comme une piste sérieuse pour exploiter efficacement les multiples unités de calcul des architectures multicœurs.Les gains obtenus sur des applications scientifiques montrent l'intérêt d'une communication forte entre l'application et le support exécutif, permettant l'ordonnancement dynamique et portable de parallélisme structuré sur les architectures hiérarchiques.
22

Le choix de la date optimale des investissements irréversibles dans les projets pétroliers avec asymétrie d'information et incertitude : l'approche des options réelles

Ould Biha, Ahmedou January 2006 (has links) (PDF)
Ce travail vise à contribuer à l'élargissement de l'approche des options réelles dans l'examen du choix de la date optimale des investissements irréversibles, en présence d'un côté, du problème d'agence, dû à l'information privée, et de l'autre côté, d'un remboursement préétabli de la firme au principal. Nous introduisons un jeu entre un gouvernement et un agent dans lequel, le gouvernement (le principal) délègue à un agent (la firme) la décision concernant le choix de la date optimale d'un investissement en vue d'extraire ses réserves pétrolières. En contrepartie, la firme verse un remboursement préétabli (taxe) au propriétaire (gouvernement). L'agent détient une information privée sur une partie de coût constant de l'investissement, tandis que le principal connaît seulement sa fonction de distribution. Quant à l'autre partie du coût constant de l'investissement, elle est supposée connue par les deux agents. L'information privée dont dispose la firme est par hypothèse constante. De plus, la firme produit une quantité de pétrole fixe jusqu'à épuisement de ressources. Elle rembourse au propriétaire un pourcentage constant de cette quantité extraite sous forme de Royalty (taxe) et celui-ci dépend de l'information privée de la firme. La seule source de l'incertitude provient du prix de l'actif sous-jacent qui varie stochastiquement selon un Mouvement Brownien géométrique (MBG). Nous ignorons toute présence des coûts autre que le coût de l'investissement. Nous supposons que la firme a l'option d'attendre avant de se lancer dans le projet. Son problème est de choisir la date optimale de l'investissement, étant donné son information privée et l'incertitude sur le prix. Tandis que le problème du principal est de concevoir le contrat optimal qui incite la firme à révéler la vraie valeur de son information privée, afin d'optimiser la valeur de son opportunité d'investissement. En plus, nous faisons l'hypothèse que le gouvernement a le pouvoir de s'engager, d'une manière crédible à ne pas renégocier sa politique de révélation, une fois la firme révèle son coût jusqu'à la fin du projet. Nous montrons, que le principal, sous information parfaite choisira la même date optimale d'investissement que celle choisie par la firme sans intervention du gouvernement. De plus, nous montrons, en utilisant l'approche des options réelles, que la présence d'asymétrie d'information retarde le choix de la date optimale de l'investissement ce qui cause une distorsion qui entraîne un sous-investissement. Le niveau efficace de l'investissement social ne peut pas être atteint en présence d'une asymétrie d'information. Enfin, nous montrons que pour des valeurs élevées de coût de l'investissement, la rente de la firme est nulle. En revanche, pour un coût d'investissement minimal, la rente du principal est maximale. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Option réelle, Contrats pétroliers, Asymétrie d'information, Irréversibilité, Incertitude, Valeur d'option, Prix critique, Royalty.
23

SCHOONER : une encapsulation orientée objet de supports d'exécution pour applications réparties

Furmento, Nathalie 10 May 1999 (has links) (PDF)
Le sujet de cette thèse est la conception d'un support d'exécution orienté objet pour applications réparties. Un des principaux objectifs est de permettre de correctement isoler le code lié à la gestion du support d'exécution du code propre à l'application. D'autre part, un tel support se doit d'être portable sur le plus grand nombre de plate-formes ; pour cela son interface de programmation doit être minimale tout en restant extensible. La prise en compte de tels critères permet d'obtenir un support pour une grande variété d'applications réparties. Nous avons donc conçu et implémenté un support d'exécution sous la forme d'une bibliothèque de classes appelée Schooner. Le modèle de programmation de la bibliothèque s'articule autour des notions de machine virtuelle et d'entités réparties communiquant par messages actifs. En plus de ce modèle de base, nous avons également développé une extension multi-active permettant l'utilisation de processus légers. Afin de compléter et valider \schooner, des outils d'aide au développement et de mise au point d'applications réparties sont également fournis. Une des caractéristiques importantes de l'environnement fourni est d'être facilement personnalisable selon les besoins spécifiques d'une application en permettant par exemple une amélioration des performances. Dans ce contexte, nous proposons un mécanisme de bufferisation des messages entre deux entités communicantes, mécanisme entièrement paramétrable par l'utilisateur. Il est également envisageable dans le cadre de la version multi-active de modifier l'ordonnancement des entités actives. Cet environnement a pu être validé par le développement de deux applications de taille conséquente : la version répartie d'un simulateur à événements discrets orienté objet, Prosit et une extension répartie et parallèle du langage C++, C++//.
24

Multi-scale interaction techniques for the interactive visualization of execution traces / Techniques d'interaction multi-échelles pour la visualisation interactive de traces d'exécution

Dautriche, Rémy 20 October 2016 (has links)
Développer des applications de streaming multimedia pour systèmes embarqués devient une tâche de plus en plus complexe. De nouveaux standards multimedia apparaissent régulièrement sur le marché pour supporter de meilleures résolutions et délivrer du contenu multimedia de meilleure qualité. Une conséquence est la complexification des plateformes matérielles et du développement logiciel. La méthode traditionnelle de débogage pour les applications de streaming multimedia est l'utilisation de traces d'exécution. Cependant, la quantité de données générée par les logiciels modernes augmente et les outils existants ne passent pas à l'échelle, ne permettent plus un débogage efficace. Dans cette thèse, nous nous focalisons sur de nouvelles techniques de visualisation enrichies par des résultats d'algorithmes de fouille de données afin de permettre une analyse efficace des traces d'exécution.Nous commençons par présenter les Slick Graphs, une technique de découpage et de lissage pour la visualisation de séries temporelles. Les Slick Graphs minimisent les artéfacts introduits par les techniques de lissage traditionnelles en utilisant le plus petit intervalle possible: les pixels. A travers une étude utilisateur, nous montrons que les Slick Graphs sont significativement plus rapides et plus précis avec des données périodiques. Nous proposons ensuite un nouveau système de visualisation interactive, TraceViz, pour explorer les traces d'exécution à différents niveaux de détails. Avec TraceViz, nous introduisons aussi un back-end permettant l'exploration interactive de trace d'exécution de taille importante. Nous fournissons une analyse de performance montrant que le back-end de TraceViz délivre des performances significativement meilleures que les back-end utilisés dans les outils de débogage disponibles aujourd'hui.Les traces contiennent aussi de nombreuses informations importantes qui peuvent être calculées avec des algorithmes de fouille de données comme par exemple l'existence de séquences d’événements répétées au cours de la trace ou des comportements périodiques. Cependant, même si les techniques de fouille de données permettent d'avoir une meilleure compréhension des traces d'exécution, leurs résultats sont difficiles à exploiter dû au grand nombre de motifs à examiner un par un manuellement. Nous proposons une nouvelle méthode d'analyse visuelle qui permet de visualiser les structures cachées dans une traces comme les séquences répétées et la périodicité d'un ensemble d’événements, permettant de rapidement avoir une compréhension fine de la trace. Enfin, nous montrons aussi comment notre méthode peut être appliquées à différents types de données, autres que les traces d'exécution. / Developing streaming multimedia applications on embedded systems becomes increasingly complex over time. New multimedia standards reach the market to support better resolutions and overall improved quality delivered to the end-user. Consequently, hardware platforms complexify and developing the software to fully exploit them becomes harder at each new generation. The traditional debugging method for streaming applications is the usage of execution traces. However, the amount of data generated by modern software largely increases and existing tools do not allow an efficient debugging process as they become unable to tackle large amounts of data. In this thesis, we focus on new interactive visualization techniques enriched by results of data mining algorithms for a more efficient analysis of execution traces for multimedia applications.First, we introduce Slick Graphs, a binning and smoothing technique for time series visualization. Slick Graphs mitigate the quantization artifacts, introduced by the traditional smoothing techniques, by using the smallest possible binning intervals, i.e. pixels. We compared Slick Graphs to traditional smoothing techniques in a user study and show that the Slick Graphs are significantly faster and more accurate when working with periodic data. We then propose a novel interaction visualization framework, TraceViz, to explore the execution traces at different level of details and integrate the Slick Graphs to provide a global overview of the trace. With TraceViz, we also introduce a fast back-end to support the interactive browsing of huge traces. We perform a performance analysis to show that the TraceViz back-end outperforms the back-end used in state-of-the-art debugging tools for execution traces.Execution traces contain meaningful information that can be computed using data mining techniques. A wide range of patterns can be computed and provide valuable information: for example existence of repeated sequences of events or periodic behaviors. However, while pattern mining approaches provide a deeper understanding of the traces, their results is hard to understand due to the large amount of patterns that have to be examined one by one. We propose a novel visual analytics method that allows to immediately visualize hidden structures such as repeated sets/sequences and periodicity, allowing to quickly gain a deep understanding of the trace. Finally, we also show how our method can be applied with different types of data than execution traces.
25

Conception et réalisation d'un contrôleur d'exécution pour un robot mobile à roues omnidirectionnel et non holonome

Clavien, Lionel January 2017 (has links)
Les robots dits « de service » doivent cohabiter avec des humains dans la vie de tous les jours. Ils sont ainsi confrontés à des environnements dynamiques qui ne leur sont pas spécifiquement adaptés. Afin de pouvoir y évoluer efficacement, ils doivent posséder, entre autres, une base capable d’une grande mobilité. Les bases mobiles omnidirectionnelles utilisant des roues conventionnelles orientables (RCO) présentent un bon compromis entre mobilité et complexité mécanique. Possédant généralement plus d’actionneurs que de degrés de liberté, elles nécessitent cependant une coordination rigoureuse de leurs actionneurs afin de garantir un mouvement précis et sécuritaire. La coordination des actionneurs est le rôle du contrôleur d’exécution. Une coordination basée sur le concept du mouvement du châssis autour de son centre instantané de rotation (CIR) est une méthode connue. Cependant, les paramétrisations communément utilisées pour décrire la position du CIR sont toutes entachées de singularités propres, ce qui nuit à la conception d’un contrôleur d’exécution efficace. De plus, la plupart des contrôleurs d’exécution présentés dans la littérature ne sont pas adaptés à l’utilisation de RCO qui possèdent un couplage mécanique entre direction et propulsion (dénommées roues AZIMUT), qui permettent par exemple de ressentir des forces qui seraient appliquées extérieurement sur la base. Enfin, ces contrôleurs d’exécution ne peuvent pas gérer de façon aisée les contraintes de position, vitesse et accélération imposées par les actionneurs. Cette thèse adresse le problème du contrôle d’exécution pour AZIMUT-3, une base mobile omnidirectionnelle non holonome utilisant des roues AZIMUT. Un nouvel espace de configuration pour le mouvement du châssis ainsi qu’une paramétrisation de celui-ci ne possédant aucune singularité propre sont tout d’abord proposés. Afin de garantir la coordination des roues, le contrôle se fait explicitement dans cet espace de configuration, et les modèles cinématiques établis pour le robot permettent de passer de l’espace de configuration du mouvement du châssis à celui du mouvement des actionneurs et réciproquement. Le contrôle ne se faisant pas dans l’espace de configuration du mouvement des actionneurs, il est nécessaire d’estimer le mouvement du châssis à partir des données fournies par les actionneurs. Un nouvel algorithme itératif d’estimation de la position du CIR est ainsi proposé. Le contrôleur d’exécution conçu sur la base de ces éléments permet de respecter les contraintes en position, vitesse et accélération des actionneurs et de gérer le couplage propre aux roues AZIMUT. Il permet aussi de gérer les singularités structurelles inhérentes aux robots mobiles utilisant des RCO. Les résultats de tests effectués avec AZIMUT-3 démontrent les performances du contrôleur d’exécution conçu en termes de respect des contraintes, de précision odométrique et de vitesse d’exécution de commande. L’extension du modèle cinématique et du contrôleur d’exécution à tous les robots mobiles omnidirectionnels non holonomes utilisant des RCO est aussi discutée.
26

Les actes délégués en droit de l'Union Européenne / Delegated acts in european Union law

Thiery, Sylvain 04 July 2018 (has links)
Les actes délégués ont été introduits en droit de l’Union européenne à la suite de l’adoption du traité de Lisbonne. Définis à l’article 290 TFUE comme des « actes non législatifs de portée générale qui complètent ou modifient certains éléments non essentiels de l'acte législatif », les actes délégués apparaissent prima facie comme un instrument d’exécution du droit de l’Union, dans la continuité de la comitologie préexistante au traité de Lisbonne. Ils se distinguent pourtant des actes d’exécution de l’article 291 TFUE, qui sont adoptés « lorsque des conditions uniformes d'exécution des actes juridiquement contraignants de l'Union sont nécessaires ». Les actes délégués semblent ainsi formellement exclus de la fonction d’exécution. Par déduction, ils devraient alors participer à l’exercice de la fonction législative. Cette conclusion n’a cependant rien d’évident dès lors que les actes délégués sont qualifiés « d’actes non législatifs ». L’étude des actes délégués a pour objectif de clarifier cette apparente contradiction et démontrer que l’objet de la procédure de délégation de pouvoir induite par l’article 290 TFUE est de transférer des compétences de nature législative entre le Parlement européen et le Conseil d’une part, et la Commission d’autre part. Cette étude conduit à observer les incidences institutionnelles et substantielles des actes délégués pour évaluer leurs effets sur la production normative de l’Union. / Delegated acts have been introduced into European Union law following the adoption of the Lisbon treaty. Defined by article 290 TFEU as “non-legislative acts of general application to supplement or amend certain non-essential elements of the legislative act”, delegated acts appear prima facie as an instrument of implementation of EU law, in continuity with the comitology that existed before the Lisbon treaty. However, delegated acts differ from the implementing acts as defined by article 291 TFEU which are adopted “where uniform conditions for implementing legally binding Union acts are needed”. Delegated acts thereby seem to be excluded from executive function. Instead, they should by deduction take part in the exercise of legislative function. This hypothesis is however not evident since delegated acts are referred to as “non-legislative acts”. The purpose of this thesis is to clarify this apparent contradiction and demonstrate that the aim of the delegation procedure under article 290 TFEU is to transfer a legislative power from the European Parliament and the Council to the Commission. This thesis assesses the institutional and substantive implications of delegated acts and their effects on the normative production of the Union.
27

Etude d'éléments fondamentaux des langages de programmation : contrôle de l'utilisation des objets et primitives d'exécution

Bert, Didier 02 May 1973 (has links) (PDF)
.
28

The Transcendental Etudes of Sergei Liapunov

Smith, Ellan Louise 08 1900 (has links)
Liapunov's Twelve Transcendental Etudes, although derivative in nature, have significant musical and technical value, and are sometimes strengthened by the inspiration of other composers' works. Neither highly creative nor original, LIaounov drew on forms and techniques supplied by the great pianist-composers of Western Europe, such as Schwann, Chopin, and Liszt. Not to be overlooked is the influence of his teacher and friend, Balakirev.
29

A bottom-up process management environment dedicated to process actors / Un environnement de gestion de processus dédié aux acteurs de processus

Hajmoosaei, Mojtaba 26 January 2018 (has links)
Les organisations adoptent de plus en plus les environnements de gestion des processus car ils offrent des perspectives prometteuses d'exécution en termes de flexibilité et d'efficacité. Les environnements traditionnels proposent cependant une approche descendante qui nécessite, de la part de concepteurs, l'élaboration d'un modèle avant sa mise en oeuvre par les acteurs qui le déploient tout au long du cycle d'ingénierie. En raison de cette divergence, un différentiel important est souvent constaté entre les modèles de processus et leur mise en oeuvre. De par l'absence de prise directe avec les acteurs de terrain, le niveau opérationnel des environnements de processus est trop faiblement exploité, en particulier en ingénierie des systèmes et des logiciels. Afin de faciliter l'utilisation des environnements de processus, cette thèse présente une approche ascendante mettant les acteurs du processus au coeur de la problématique. L'approche proposée autorise conjointement la modélisation et la mise en oeuvre de leurs activités quotidiennes. Dans cet objectif, notre approche s'appuie sur la description des artéfacts produits et consommés durant l'exécution d'une activité. Cette description permet à chaque acteur du processus de décrire le fragment de processus exprimant les activités dictées par son rôle. Le processus global se décompose ainsi en plusieurs fragments appartenant à différents rôles. Chaque fragment est modélisé indépendamment des autres fragments ; il peut aussi être greffé progressivement au modèle de processus initial. La modélisation des processus devient ainsi moins complexe et plus parcellaire. En outre, un fragment de processus ne modélise que l'aspect structurel des activités d'un rôle sans anticiper sur le comportement des activités ; il est moins prescriptif qu'un ordonnancement des activités de l'acteur. Un moteur de processus basé sur la production et la consommation d'artéfacts a été développé pour promulguer des activités provenant de différents fragments de processus. Ce moteur ne requiert pas de relations prédéfinies d'ordonnancement entre les activités pour les synchroniser, mais déduit leur dépendance à partir de leurs artéfacts échangés. Les dépendances sont représentées et actualisées au sein d'un graphe appelé Process Dependency Graph (PDG) qui reflète à tout instant l'état courant de l'exécution du processus. Cet environnement a été étendu afin de gérer les changements imprévus qui se produisent inévitablement lors de la mise en oeuvre des processus. Ce dispositif permet aux acteurs de signaler des changements émergents, d'analyser les impacts possibles et de notifier les personnes affectées par les modifications. En résumé, notre approche préconise de répartir les tâches d'un processus en plusieurs fragments, modélisés et adoptés séparément par les acteurs du processus. Le moteur de processus, qui s'appuie sur la disponibilité des artéfacts pour synchroniser les activités, permet d'exécuter indépendamment les fragments des processus. Il permet aussi l'exécution d'un processus partiellement défini pour lequel certains fragments seraient manquants. La vision globale de l'état d'avancement des différents acteurs concernés émerge au fur et à mesure de l'exécution des fragments. Cette nouvelle approche vise à intégrer au mieux les acteurs du processus dans le cycle de vie de la gestion des processus, ce qui rend ces systèmes plus attractifs et plus proches de leurs préoccupations. / Companies increasingly adopt process management environments, which offer promising perspectives for a more flexible and efficient process execution. Traditional process management environments embodies a top-down approach in which process modeling is performed by process designers and process enacting is performed by process actors. Due to this separation, there is often a gap between process models and their real enactments. As a consequence, the operational level of top down process environments has stayed low, especially in system and software industry, because they are not directly relevant to process actors' needs. In order to facilitate the usage of process environments for process actors, this thesis presents a user-centric and bottom-up approach that enables integration of process actors into process management life cycle by allowing them to perform both the modeling and enacting of their real processes. To this end, first, a bottom-up approach based on the artifact-centric modeling paradigm was proposed to allow each process actor to easily describe the process fragment containing the activities carried out by his role. The global process is thus decomposed into several fragments belonging to different roles. Each fragment can be modeled independently of other fragments and can be added progressively to the process model; therefore the process modeling becomes less complex and more partial. Moreover, a process fragment models only the structural aspect of a role's activities without anticipating the behavior of these activities; therefore the process model is less prescriptive. Second, a data-driven process engine was developed to enact activities coming from different process fragments. Our process engine does not require predefined work-sequence relations among these activities to synchronize them, but deduces such dependencies from their enactment-time exchanged artifacts. We used a graph structure name Process Dependency Graph (PDG) to store enactment-time process information and establish the dependencies among process elements. Third, we extend our process environment in order to handle unforeseen changes occurring during process enactment. This results in a Change-Aware Process Environment that allows process actors reporting emergent changes, analyzing possible impacts and notifying people affected by the changes. In our bottom-up approach, a process is split into several fragments separately modeled and enacted by process actors. Our data-driven process engine, which uses the availability of working artifacts to synchronize activities, enables enacting independently process fragments, and even a partially modeled process where some fragments are missing. The global process progressively emerges only at enactment time from the execution of process fragments. This new approach, with its simpler modeling and more flexible enactment, integrates better process actors into process management life cycle, and hence makes process management systems more attractive and useful for them.
30

Environnement Interopérable Distribué pour les Simulations Numériques avec Composants CAPE-OPEN

Pigeon, Laurent 21 September 2007 (has links) (PDF)
La complexité des applications numériques de calcul scientifique ne cesse de croître. Cette difficulté revêt alors deux formes. La première est une complexité logicielle qui nécessite l'intégration de divers codes de calcul toujours plus sophistiqués et spécialisés à la simulation de phénomènes physiques complexes. La seconde forme de complexité est calculatoire où les composants de calcul nécessitent toujours plus de ressources et de capacité de stockage afin de modéliser, entre autres, les phénomènes au plus proche de la physique « réelle ».<br /><br />Dans le domaine de la simulation des procédés assistée par ordinateur, la complexité logicielle est masquée par le standard CAPE-OPEN qui répond aux besoins d'intégration de codes tiers. Il propose des spécifications d'interfaces, basées sur une approche par composants logiciels tels que DCOM ou CORBA. Cette thèse apporte une solution à la complexité calculatoire. Pour cela, nous étudions le problème de la distribution de la charge de calcul des simulations des procédés sur des architectures de type grappe de calcul dont les composants sont au standard CAPE-OPEN. Une exécution distribuée performante requiert la distribution des activités concurrentes de l'application tout en minimisant le volume de données à échanger via le support de communication.<br /><br />Dans ce contexte, nous présentons une analyse fine du schéma d'exécution des simulations de procédés qui conduit à la conception de deux environnements distribués d'exécution. Le premier nous a permis de quantifier le gain atteignable sur une grappe de calcul à travers la simulation de plusieurs cas tests métier. Toutefois, les contraintes technologiques industrielles se sont avérées peu propices à l'implémentation d'un environnement distribué visant à s'approcher de l'optimal. Par conséquent, la définition d'un second prototype basé sur le moteur exécutif KAAPI a été mené à bien. Afin de répondre à nos besoins, nous l'avons étendu aux techniques « statiques » d'exécution. Fort de cet environnement, nous avons entrepris d'étudier différentes politiques d'ordonnancement. L'environnement KAAPI couplé à notre extension ouvre de larges perspectives d'études dans le cadre plus large des applications numériques de calcul scientifique.

Page generated in 0.0819 seconds