• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
581

Algorithms and Software for Decision Support in Design of Assembly and Transfer Lines / Algorithmes et logiciels pour aide à la décision dans la conception de lignes d'assemblage et des lignes de transfert

Malyutin, Sergey 24 October 2016 (has links)
Une vue d'ensemble des problèmes et des méthodes pour la conception des lignesd'assemblage et d'usinage est donnée. Un nouveau problème d'affectation de la main-d’œuvrepour une ligne d'assemblage multi-produit cadencée avec un objectif de minimiser lenombre d'opérateurs est étudié. Diverses relations de priorité entre les opérations et lesdifférentes fonctions définissant les temps d'opérations, en fonction du nombre d'opérateurssont considérés. Un nouveau problème d'optimisation multiobjectif pour une ligne d'usinagemono-produit est formulé. Plusieurs méthodes exactes et heuristiques et leursimplémentations informatiques pour les deux problèmes sont développées par l'auteur. Unmodule logiciel d'aide à la décision pour résoudre ces problèmes est développé et implémentédans un environnement d'un nouveau PLM d'IBM dans le cadre du projet européen amePLM.Ce module est testé sur un exemple réel de conception d'une ligne de montage des moteurschez Mercedes Benz en Allemagne. / An overview of existing problems and methods for the design of assembly and transfer lines is given. A new workforce assignment problem for a paced multi-product assembly line with a goal of minimizing the number of workers is studied. Various precedence relations between operations and functions of operation processing times dependent on the number of workers areconsidered. A new problem of multi-objective optimization for a single product transfer line is solved. Several exact and heuristic methods and their computer implementations for both problems are developed by the author. An application of developed approaches to solving a real production problem relevant to the European project amePLM is demonstrated.
582

La déconstruction du droit d'auteur sous prétexte de technologie numérique / Deconstruction of author's right under the pretext of digital technology

Graça, Orlanda Gisela 09 November 2012 (has links)
L'avènement des technologies numériques, notamment des réseaux numériques, a servi de prétexte pour introduire dans le droit d'auteur des réformes qui mènent à une mutation profonde de ce droit. Un précédent a été créé par l'inclusion des logiciels et des bases de données électroniques dans son champ de protection ; ce sont de créations strictement fonctionnelles, qui ne devraient pas appartenir à la catégorie « oeuvre de l'esprit ». Cela ne pouvait qu'engendrer une distorsion du critère de l'originalité. En outre, la nature de ces objets imposera d'adapter le régime juridique ainsi que les règles de titularité. Naquit ainsi, au sein du droit d'auteur classique, un paradigme spécial que tout rapproche du copyright américain. Centré sur l'investisseur et sur la notion de fixation, il est désormais en train de contaminer le droit d'auteur. Au demeurant, on ne peut négliger l'influence capitale du copyright américain dans tout ce processus de construction et d'extension puisque certains de ses concepts et principes se retrouvent aujourd'hui dans le droit d'auteur. On assiste à un véritable mouvement de déconstruction du droit d'auteur personnaliste hérité de la Révolution française et dont l'apogée fut la loi du 11 mars 1957. Nous mettrons en évidence les divers facteurs qui ont agi et qui agissent conjointement aux niveaux national, communautaire et international, tout en démontrant que si l'environnement numérique pose certes des difficultés pour l'exploitation des oeuvres de l'esprit, le droit d'auteur, centré sur l'auteur et fondé sur la notion de communication au public, était bel et bien capable d'y faire face sans avoir besoin d'ébranler ses assises / The advent of digital technologies, including digital networks, served as a pretext to introduce author's right reforms that lead to a profound change in this right. A precedent was set with the inclusion of software and electronic databases in the field of protection as these are strictly functional creations that should not belong to the category of "oeuvre de l'esprit". This inclusion leads to a distortion of the criteria of originality as well as the need to change both the rules of ownership and the legal regime of author's rights. Consequently a special paradigm, similar to U.S. copyright, is born inside the classical author's right system. Focused on the investor and in the notion of fixation, this special right of sotware and database now contaminates the author's right system. We cannot ignore the important influence of American concept of copyright in the whole process of construction and expansion of this special paradigm as some of its concepts and principles are reflected in today's notion of author's rights. We are witnessing a movement of deconstruction of the author's rights personalist legacy of the French Revolution which culminated in the Act of 11 March 1957. We will highlight the various factors that have acted and act jointly at national, EU and international level to produce this result, while demonstrating that while the digital environment certainly poses difficulties for the use of works of authorship, the author's right, author-centered and based on the notion of communication to the public, would indeed be able to cope with digital environment without the need to undermine its foundations
583

Déploiement d'Applications à Services sur des Environnements d'Exécution à Services : Une Approche Dirigée par les Modèles.

Chazalet, Antonin 21 November 2008 (has links) (PDF)
Notre objectif est la fourniture de services Internet basés sur des architectures "n-tiers". Dans notre contexte, ces architectures sont composées de cinq tiers : "équipements", "passerelles", "médiation", "serveur Internet" et "clients finaux". L'appréhension du tiers "passerelle" nécessite l'introduction d'applications à services qui sont destinées à répondre à des requêtes du tiers "médiation" et à collecter et transformer des données provenant du tiers "équipements" qui seront ensuite utilisées par le tiers "médiation" puis manipulées par le tiers "serveur Internet" qui est chargé de leur présentation aux clients finaux. L'introduction de telles applications à services destinées à fonctionner dans des environnements d'exécution à services nécessite la résolution de problématiques propres : <br>- au développement d'applications à services métiers [ML07], <br>- à leur déploiement dans des environnements d'exécution à services (ce qui est l'objectif de cette thèse) [CL07a] <br>- à la gestion dynamique des interactions entre les applications à services et les équipements (dé)- branchés à la passerelle (qui sont exposées comme des services) [EBL+08]. Le cycle de vie logiciel est composé de plusieurs phases. Les principales sont l'analyse, la conception, l'implémentation, le test et le déploiement. Cette dernière est une phase complexe qui est composée d'activités et de sous-activités comme l'installation, l'activation, la désactivation, les mises à jour statique et dynamique, l'évolution, le dynamisme et la désinstallation. L'introduction et l'utilisation de l'approche à service augmente encore la complexité de la phase de déploiement, en particulier lorsqu'il s'agit de déployer des applications à services sur des environnements d'exécution à services. Les enjeux sont, ici : <br>- d'exécuter des activités de déploiement sur les applications tout en respectant l'architecture de chaque application (c'est-à-dire le modèle de chaque application), <br>- de maîtriser l'état de déploiement des (implémentations de) services réalisant ces applications, <br>- d'exécuter des activités de déploiement sur des services appartenant à ces applications en ne touchant que le service ciblé et donc sans impacter entièrement les applications dans leur ensemble. Nous appelons ce dernier enjeu : "déploiement au plus près". Il impose que les unités de développement (c'est-à-dire les composants orientés service contraints) utilisées pour développer les applications et les unités de déploiement (c'est-à-dire les implémentations de services) utilisées pour réaliser les applications aient le même grain. Cette thèse propose un prototype, nommé DMSA (pour Deployment Manager for Services Applications), automatisant le déploiement d'applications à services sur des environnements à services en suivant une approche dirigée par les modèles. L'utilisation de l'approche dirigée par les modèles est une réponse à la constante montée en abstraction du déploiement et de son point d'entrée. Le découplage total entre les niveaux modèles et "réalité" a été choisi afin de permettre la réutilisation des implémentations de services entre modèles de services. Cette thèse explicite notre approche, le méta-modèle pour les applications à services, la définition du déploiement pour les applications à services, l'architecture du DMSA et nos propositions. Ces dernières ciblent le déploiement d'un, puis de plusieurs modèles d'application à services sur un environnement d'exécution à services, le déploiement "transactionnel", l'appréhension de notre contexte embarqué/réactif et l'exécution de listes ordonnées d'activités de déploiement sur des environnements d'exécutions à services.
584

Deux études de transport urbain : ordonnancement des phases d'un carrefour, modèles désagrégés de déplacements dans l'agglomération grenobloise

Chevrolet, Dominique 28 February 1986 (has links) (PDF)
La première partie de la thèse est consacrée au problème de la gestion des feux tricolore d'un carrefour, et la deuxième partie s'inscrit dans le cadre plus général de la modélisation des déplacements urbains
585

Implantation automatisée de circuits précaractérisés et prédiffusés

Tsitsimis, Jean 18 October 1984 (has links) (PDF)
L'objet de la thèse est l'étude des méthodes d'implantation automatisée de deux types de circuits: précaractérisés et les circuits prédiffusés. On propose des méthodes et des logiciels effectuant une initialisation du placement des blocs qui est améliorée par transformations élémentaires successives. Les méthodes sont principalement des méthodes stochastiques et des méthodes d'analyse factorielle. Un «préroutage» des connexions conduit à un écartement des blocs assurant le tracé total des équipotentiels. Etude de l'implantation des circuits dans les réseaux prédiffusés de technologie CML (current mode logic). Elle est effectuée en trois phases: affectation des portes logiques au quadrant, placement à l'intérieur de chaque quadrant, et tracé des connexions
586

Application de l'approche de la réponse impulsionnelle à la modélisation du rayonnement de transducteurs acoustiques de structure arbitraire

Sbai, Khalid 18 June 1996 (has links) (PDF)
Le travail effectué dans ce mémoire a conduit à l'élaboration d'un logiciel de simulation "DREAM" qui permet de calculer le champ acoustique rayonné par des transducteurs de surfaces planes et quasi-planes dont les ouvertures peuvent être structurées de manière quasi arbitraires. Il prend en compte tous les paramètres caractéristiques d'un transducteur ou d'une matrice de transducteurs (géométrie, apodisation, focalisation, balayage, excitation,... etc.). L'analyse du comportement du transducteur dans le champ proche et lointain ainsi que la détermination des diagrammes de directivité peuvent être effectués à la fois pour des excitations large bande et harmoniques. Les options originales "Matrice Arbitraire" et "Structure 3D" permettent de définir un transducteur matriciel de structure presque arbitraire. Le programme de calcul est purement numérique, il utilise le formalisme de la réponse impulsionnelle et il opère directement dans le domaine temporel. La procédure de calcul, basée sur l'approche de la "représentation discrète", génère la solution recherchée de la même façon que le champ acoustique est créé physiquement par un transducteur. Ainsi, une solution existe pour chaque cas causal réalisable en pratique. Dans un premier temps, la validation du programme a été effectuée à l'aide de nombreux exemples tests et a démontré la fiabilité des résultats acquis. Dans un second temps, il a été appliqué à quatre études différentes comprenant l'analyse d'un réseau de transducteurs conçu pour un sonar, l'analyse et la comparaison du rayonnement de deux transducteurs circulaires à focalisation géométrique et électronique, l'étude d'un système de contrôle actif antibruit, l'étude et la comparaison "géométrique - électronique" des transducteurs multi-éléments de forme cylindrique convexe et concave. En ce qui concerne le cas du système de contrôle actif antibruit son étude a servi à la validation expérimentale de la méthode de calcul en comparant les résultats de cette dernière avec les mesures. Globalement, les possibilités offertes par le logiciel DREAM permettent de réaliser une grande majorité d'études pour lesquelles des auteurs ont déjà développé individuellement leur propre méthode de calcul
587

Taming Complexity of Large Software Systems: Contracting, Self-Adaptation and Feature Modeling

Collet, Philippe 06 December 2011 (has links) (PDF)
Nos travaux s'inscrivent dans le domaine du génie logiciel pour les systèmes informatiques à large échelle. Notre objectif est de fournir des techniques et des outils pour aider les architectes logiciels à maîtriser la complexité toujours grandissante de ces systèmes. Principalement fondées sur des approches par ingénierie des modèles, nos contributions s'organisent autour de trois axes. Le premier axe concerne le développement de systèmes à la fois fiables et flexibles, et ce à base de composants hiérarchiques équipés de capacités de reconfiguration dynamique. Par l'utilisation de nouvelles formes de contrats logiciels, les systèmes et frameworks que nous proposons prennent en compte differents formalismes de spécification et maintiennent les contrats à jour pendant l'exécution. Une seconde partie de nos travaux s'intéresse à fournir des capacités auto-adaptatives à ces systèmes contractuels, à travers des mécanismes de négociation de contrats et des sous-systèmes de monitoring eux-mêmes auto-adaptatifs. Un troisième axe concerne les lignes de produits logiciels dans lesquelles les features models sont largement utilisés pour modéliser la variabilité. Nos contributions consistent en un ensemble d'opérateurs de composition bien définis et implémentés efficacement pour les feature models, ainsi qu'un langage dédié permettant leur gestion à large échelle.
588

Méthodes d'optimisations de programmes bas niveau

TOUATI, Sid-Ahmed-Ali 30 June 2010 (has links) (PDF)
Ce manuscrit synthétise plus d'une décade de notre recherche académique sur le sujet d'optimisation de codes bas niveau, dont le but est une intégration dans un compilateur optimisant ou dans un outil d'optimisation semi-automatique. Dans les programmes bas niveau, les caractéristiques du processeur sont connues et peuvent être utilisées pour générer des codes plus en harmonie avec le matériel. Nous commençons notre document par une vue générale sur le problème d'ordonnancement des phases de compilation. Actuellement, des centaines d'étapes de compilation et d'optimisation de codes existent; un problème fondamental et ouvert reste de savoir comment les combiner et les ordonner efficacement. Pour pallier rapidement cette difficulté, une stratégie du moindre effort consiste à appliquer une compilation itérative en exécutant successivement le programme avant de décider de la technique d'optimisation de code à employer et avec quels paramètres. Nous prouvons que l'approche de compilation itérative ne simpli fie pas fondamentalement le problème, et l'utilisation de modèles statiques de performances reste un choix raisonnable. Un problème classique de con it entre deux étapes de compilation est celui qui lie l'allocation de registres et l'ordonnancement d'instructions. Nous montrons comment gérer efficacement cet antagonisme en séparant les contraintes de registres des contraintes d'ordonnancement d'instructions. Cela est possible grâce à la notion de saturation en registres (RS), qui est le besoin maximal en registres pour tous les ordonnancements possibles d'un graphe. Nous apportons une contribution formelle et une heuristique efficace, qui permettent la détection de contraintes de registres toujours véri fiées; ils peuvent par conséquent être négligées. Nous introduisons la plate-forme SIRA, qui permet de garantir l'absence de code de vidage avant l'ordonnancement d'instructions. SIRA est un modèle basé sur la théorie des graphes permettant de borner le besoin maximal en registres pour tout pipeline logiciel, sans altérer, si possible, le parallélisme d'instructions. SIRA modélise les contraintes cycliques des registres dans différentes architectures possibles : avec plusieurs types de registres, avec tampons ou les d'attente, et avec des bancs de registres rotatifs. Nous apportons une heuristique efficace qui montre des résultats satisfaisants, que ce soit comme outil indépendant, ou comme passe intégrée dans un vrai compilateur. Dans le contexte des processeurs exhibant des retards d'accès aux registres (VLIW, EPIC, DSP), nous attirons l'attention sur le problème qui peut survenir lorsque les contraintes de registres sont traitées avant l'ordonnancement d'instructions. Ce problème est la création de circuits négatifs ou nuls dans le graphe de dépendances de données. Nous montrons comment éliminer ces circuits indésirables dans le contexte de SIRA. SIRA définit une relation formelle entre le nombre de registres alloués, le parallélisme d'instructions et le facteur de déroulage d'une boucle. Nous nous basons sur cette relation pour écrire un algorithme optimal qui minimise le facteur de déroulage tout en sauvegardant le parallélisme d'instructions et en garantissant l'absence de code de vidage. D'après nos connaissances, ceci est le premier résultat qui démontre que le compactage de la taille de code n'est pas un objectif antagoniste à l'optimisation des performances de code. L'interaction entre la hiérarchie mémoire et le parallélisme d'instructions est un point central si l'on souhaite réduire le coût des latences d'opérations de chargement. Premièrement, notre étude pratique avec des micro-benchmarks montre que les processeurs superscalaires ayant une exécution dans le désordre ont un bug de performances dans leur mécanisme de désambiguation mémoire. Nous montrons ensuite qu'une vectorisation des opérations mémoire résoud ce problème pour des codes réguliers. Deuxièmement, nous étudions l'optimisation de préchargement de données pour des codes VLIW embarqués irréguliers. Finalement, avec l'arrivée des processeurs multicoeurs, nous observons que les temps d'exécution des programmes deviennent très variables. A fin d'améliorer la reproductibilité des résultats expérimentaux, nous avons conçu le Speedup-Test, un protocole statistique rigoureux. Nous nous basons sur des tests statistiques connus (tests de Shapiro-Wilk, F de Fisher, de Student, de Kolmogorov-Smirnov, de Wilcoxon- Mann-Whitney) a n d'évaluer si une accélération observée du temps d'exécution médian ou moyen est signi cative.
589

L'utopie du logiciel libre. La construction de projets de transformation sociale en lien avec le mouvement du free software.

Broca, Sebastien 12 January 2012 (has links) (PDF)
Dans le mouvement d'extension de la portée sociale du logiciel libre s'est constituée une utopie, qui constitue un pan de l'imaginaire politique contemporain. Cette utopie s'étend désormais bien au-delà de son milieu socio-culturel d'origine (le milieu hacker), du fait des liens tissés entre " libristes " et défenseurs des " biens communs ", du poids croissant de l'approche open source, et à proportion de l'intérêt suscité par le logiciel libre chez certains intellectuels critiques à partir de la fin des années 1990. Reprenant l'idéal cybernétique de libre circulation de l'information, l'utopie du logiciel libre se présente comme une contestation de la vision néolibérale de la propriété intellectuelle, et comme une critique des formes d'organisation du travail caractéristiques du capitalisme industriel. Elle se déploie en tant qu'" utopie concrète " (E. Bloch), mettant en jeu des pratiques de collaboration en ligne, des créations juridiques originales, et des formes de militantisme. Elle embrasse un idéal d'auto-organisation de la société civile, fondé sur la valorisation d'un domaine d'activités sociales distinct tant de l'État que du marché. Elle est toutefois condamnée à demeurer en deçà de cet idéal, et reste par ailleurs toujours menacée par les séductions du mythe et les renoncements de l'idéologie.
590

Coordination des activités réparties dans des situations dynamiques : le cas de la gestion de crise inter-organisationnel

Franke, Jörn 14 October 2011 (has links) (PDF)
De nombreuses catastrophes de diverses envergures frappent régulièrement des populations partout dans le monde. Parmi les exemples marquant on peut citer l'ouragan Katrina en 2005, le tremblement de terre en Haïti en 2010 ou plus récemment le Tsunami au Japon et la catastrophe de Fukujima qui a suivie. Au cours de ces catastrophes, plusieurs centaines d'organisations, comme la police, les pompiers ou les organisations d'aide humanitaire, interviennent pour sauver les gens et aider à revenir à une vie normale. Ces organisations ont besoin de se coordonner pour faire face à une situation dynamique avec des ressources limitées et une vision partielle de la situation. L'évolution de la situation entraîne souvent des changements d'objectif et de plan. Un des problèmes typique est d'obtenir un aperçu sur les relations entre ce qui a été fait, ce qui se passe actuellement et quelles sont les prochaines étapes. Ce problème est particulièrement difficile sur le plan inter-organisationnel : Chaque organisation coordonne la réponse de sa propre perspective et s'appuie sur les informations fournies par d'autres organisations. Notre objectif dans cette thèse est d'étudier comment supporter la coordination des activités par des personnes de différentes organisations dans une situation dynamique par un système d'information. L'idée de base est de tirer profit d'une approche basée sur les processus, où les activités et leurs relations sont rendues explicites. Nous présentons un cadre pour la coordination des activités dans des situations dynamiques. Il permet la modélisation ad hoc des relations entre ce qui a été fait, ce qui se passe actuellement et quelles sont les prochaines étapes. Les écarts par rapport au modèle et comment les activités ont été réalisées sont affichées à l'utilisateur pour mettre en évidence l'impact de l'évolution des objectifs. Nous étendons ce cadre au niveau inter-organisationnel. Certaines activités peuvent être partagées entre différentes organisations. Tout n'est pas partagé entre tout le monde pour tenir compte du respect de la vie privée, de la réglementation, des raisons stratégiques ou autres. Les activités partagées sont reproduites dans les espaces de travail de ces organisations. Nous décrivons comment des vues divergentes sur les activités et leurs relations peuvent etre détectées et traitées afin de revenir éventuellement à une vue convergente. Les concepts sont mis en œuvre comme une extension d'un service de collaboration distribuée ouvert. Ils ont été évalués par des gestionnaires de catastrophes expérimentés. Par ailleurs, nous avons conçu une expérience visant à évaluer l'utilisation d'outils pour aborder ces question. Nous avons effectué plusieurs expériences pour valider cette expérience. D'autres expériences pourront fournir une validation plus complété du modèle proposé dans cette thèse.

Page generated in 0.0387 seconds