• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Analyse de données transcriptome et protéome pour l'étude des réponses aux stress oxydants et aux métaux lourds

Michaut, Magali 28 November 2008 (has links) (PDF)
Ce travail a pour objet l'analyse de données transcriptome et protéome pour l'étude des réponses aux stress oxydants et aux métaux lourds, en particulier chez la cyanobactérie Synechocystis. Cet organisme procaryote permet notamment d'aider à la compréhension des plantes tout en étant facilement manipulable génétiquement. La démarche a d'abord consisté à analyser les réponses transcriptionnelles des gènes de Synechocystis en conditions de stress, notamment en présence de cadmium ou de peroxyde d'hydrogène. Des méthodes de prédiction d'interactions protéine-protéine ont ensuite été développées afin de construire un réseau d'interactions. Ce dernier a été comparé à un réseau d'interactions identifiées expérimentalement, notamment en termes de structure. Puis il a été complété avec les données de transcriptome précédemment analysées, afin d'obtenir une vision plus intégrée des différents phénomènes et d'étudier la dynamique des modules fonctionnels. Les résultats font apparaître différentes phases dans les réponses transcriptionnelles, ainsi que des groupes fonctionnels de protéines en interaction et co-exprimées. De plus, l'automatisation d'une méthode de classification mixte hiérarchique-pyramidale est proposée. Une méthode d'identification de biais de composition entre des groupes de protéines a aussi été développée. Par ailleurs, un outil de prédiction d'interactions protéine-protéine, applicable à toutes les espèces séquencées, a été développé. Ce logiciel open-source, InteroPorc, présente l'avantage d'être flexible, puisqu'il peut s'appliquer à différents jeux d'interactions sources. En outre, l'outil est facilement utilisable en ligne à travers une interface web.
212

Construction de systèmes par application de modèles paramétrés

Muller, Alexis 26 June 2006 (has links) (PDF)
L'ingénierie logicielle vise à se rationaliser toujours plus et commence à atteindre des niveaux de productivité proches d'autres domaines, mécanique ou électronique par exemple. Notre approche vise la spécification de composants métiers réutilisables et composables dans des contextes (domaines) applicatifs différents. Nous proposons d'en faire des composants de modèles génériques paramétrés eux-mêmes par des ”modèles requis” et fournissant un modèle enrichi. On dépasse ainsi la notion de contrat d'assemblage de composants souvent réduite à une interface de services unitaires. La conception d'un système revient alors à assembler de tels composants par les modèles. Nous proposons pour cela un opérateur d'application de modèles paramétrés. Celui-ci permet de spécifier des assemblages à partir d'un ensemble de composants de modèles. Nous étudions des propriétés d'ordre permettant de garantir la cohérence des alternatives de composition. Ceci conduit à des règles et contraintes au niveau des modèles, afin d'assurer la cohérence de systèmes ainsi construits. Nous formulons une méta-modélisation de l'approche par extension du méta-modèle UML2 et un ensemble de contraintes. Nous proposons également différentes stratégies de mise en œuvre, sous la forme de patron de conception, permettant de préserver, jusqu'à l'exploitation, les qualités de structuration et de généricité obtenues au niveau modèle. Des projections ont été expérimentées sur différentes plates-formes à composants.
213

Développement d'applications logicielles sûres de fonctionnement : une approche dirigée par la conception

Enard, Quentin 06 May 2013 (has links) (PDF)
Dans de nombreux domaines tels que l'avionique, la médecine ou la domotique, les applications logicielles jouent un rôle de plus en plus important, allant jusqu'à être critique pour leur environnement. Afin de pouvoir faire confiance à ces applications, leur développement est contraint par des exigences de sûreté de fonctionnement. En effet il est nécessaire de démontrer que ces exigences de haut-niveau sont prises en compte tout au long du cycle de développement et que des solutions concrètessont mises en œuvre pour parvenir à les respecter. De telles contraintes rendent le développement d'applications sûres de fonctionnement particulièrement complexe et difficile. Faciliter ce processus appelle à la recherche de nouvelles approches dedéveloppement qui intègrent des concepts de sûreté de fonctionnement et guident les développeurs lors de chacune des étapesnécessaires à la production d'une nouvelle application digne de confiance.Cette thèse propose ainsi de s'appuyer sur une approche dirigée par la conception pour guider le développement des applications sûres de fonctionnement. Cette approche est concrétisée à travers une suite d'outils nommée DiaSuite et offre du support dédié à chaque étape du développement. En particulier, un langage de conception permet de décrire à la fois les aspects fonctionnels et non-fonctionnels des applications en se basant sur un paradigme dédié et en intégrant des concepts de sûreté de fonctionnement tels que le traitement des erreurs. A partir de la description d'une application, du support est généré pour guider les phases d'implémentation et de vérification. En effet, la génération d'un framework de programmation dédié permet de guider l'implémentation tandis que la génération d'un modèle formel permet de guider la vérification statique de l'application et qu'un support de simulation permet de faciliter les tests. Cette approche est évaluée grâce à des cas d'études réalisés dans les domaines de l'avionique et de l'informatique ubiquitaire.
214

Contributions for improving debugging of kernel-level services in a monolithic operating system

Bissyande, Tegawende 12 March 2013 (has links) (PDF)
Alors que la recherche sur la qualité du code des systèmes a connu un formidable engouement, les systèmes d'exploitation sont encore aux prises avec des problèmes de fiabilité notamment dus aux bogues de programmation au niveau des services noyaux tels que les pilotes de périphériques et l'implémentation des systèmes de fichiers. Des études ont en effet montré que chaque version du noyau Linux contient entre 600 et 700 fautes, et que la propension des pilotes de périphériques à contenir des erreurs est jusqu'à sept fois plus élevée que toute autre partie du noyau. Ces chiffres suggèrent que le code des services noyau n'est pas suffisamment testé et que de nombreux défauts passent inaperçus ou sont difficiles à réparer par des programmeurs non-experts, ces derniers formant pourtant la majorité des développeurs de services. Cette thèse propose une nouvelle approche pour le débogage et le test des services noyau. Notre approche est focalisée sur l'interaction entre les services noyau et le noyau central en abordant la question des "trous de sûreté" dans le code de définition des fonctions de l'API du noyau. Dans le contexte du noyau Linux, nous avons mis en place une approche automatique, dénommée Diagnosys, qui repose sur l'analyse statique du code du noyau afin d'identifier, classer et exposer les différents trous de sûreté de l'API qui pourraient donner lieu à des fautes d'exécution lorsque les fonctions sont utilisées dans du code de service écrit par des développeurs ayant une connaissance limitée des subtilités du noyau. Pour illustrer notre approche, nous avons implémenté Diagnosys pour la version 2.6.32 du noyau Linux. Nous avons montré ses avantages à soutenir les développeurs dans leurs activités de tests et de débogage.
215

Recherche reproductible, qualité logicielle, publication et interfaces en ligne pour le traitement d'image

Limare, Nicolas 21 June 2012 (has links) (PDF)
Cette thèse est basée sur une étude des problèmes de reproductibilité rencontrés dans la recherche en traitement d'image, et de manière générale dans les sciences appliquées et informatiques. Partant du constat du manque de vérifiabilité des publications scientifiques et de implémentations associées aux algorithmes publiés, nous avons conçu, créé et développé un journal scientifique, Image Processing On Line (IPOL), dans lequel nous proposons un nouveau mode d'évaluation et de publication de la recherche en traitement d'image afin d'atteindre une meilleure fiabilité des logiciels et algorithmes issus de la recherche.
216

Mise en oeuvre de la composition de services scénarisée et centrée utilisateur pour les environnements pervasifs collaboratifs.

Faure, Matthieu 07 December 2012 (has links) (PDF)
L'informatique pervasive (ou ubiquitaire) est un support pour des environnements contenant de nombreux objets (ou dispositifs) disséminés, équipés d'électronique et interconnectés. Ces dispositifs fournissent un accès distant à une multitude de fonctionnalités qui nous aident dans notre vie quotidienne. Les Architectures Orientées Services sont adaptées à la conception de logiciels pervasifs. En e ffet, chaque dispositif fournit son propre ensemble de fonctionnalités sous la forme de services. Ainsi, en l'absence de mécanisme complémentaire, les utilisateurs se trouvent limités à utiliser les services isolément alors que leurs besoins correspondent à des scénarios qui impliquent une composition de multiples services o erts par plusieurs appareils. Dans cette thèse, nous défendons qu'un système pervasif doit : d'une part, permettre aux utilisateurs d'exprimer facilement leurs besoins en créant des scénarios et d'autre part, proposer à ses utilisateurs une représentation et des moyens de gestion de leur contexte afin qu'ils puissent tirer le meilleur parti de leur environnement et de ses changements. De plus, la présence de plusieurs utilisateurs implique la nécessité de collaborer. Par ailleurs, l'exécution de scénarios doit être résiliente aux changements environnementaux et aux actions des utilisateurs. Elle doit ainsi s'adapter dynamiquement et, si possible, tirer profit du contexte et des changements de l'environnement. Notre contribution, nommée SaS (Scenarios as Services), répond à ces objectifs. Elle propose une approche interopérable capable de s'adapter à l'environnement. Elle fournit une représentation persistante et personnalisable du contexte et inclut un langage de description de scénarios destiné aux utilisateurs. Ces scénarios sont facilement contrôlables, personnalisables et réutilisables. Elle planifie l'exécution pas à pas des scénarios, afin de s'adapter aux changements de l'environnement et de bénéficier des avantages de la mobilité des utilisateurs (exécution d'un scénario, dans la durée, sur plusieurs lieux). Enfin, elle inclut le partage de scénarios qui permet aux utilisateurs de collaborer. Un prototype de SaS, basé sur des normes industrielles (telle qu'OSGi), prouve la faisabilité de notre contribution et nous permet de l'évaluer sur un cas d'étude simple.
217

Développement de systèmes distribués efficaces: une approche fondée sur les langages métiers

Réveillère, Laurent 23 November 2011 (has links) (PDF)
Au cours des dernières années, de nombreux systèmes distribués ont évolué pour faire face à la convergence de leur domaine et des réseaux informatiques. À titre d'exemple, la téléphonie sur Internet a révolutionné le domaine des télécommunications par l'introduction de nombreux nouveaux services basés sur des services Web et bases de données. Les systèmes distribués qui fournissent des services avancés doivent être efficaces pour être en mesure de traiter un grand nombre d'utilisateurs et doivent être robustes pour faire face à diverses attaques ciblant le service lui-même ou la plate-forme sous-jacente. Cependant, le développement de systèmes distribués efficace et robuste exige une connaissance approfondie des protocoles utilisés et une certaine maîtrise de la programmation réseau et système bas niveau, ce qui peut être un défi pour de nombreux développeurs. Néanmoins, le processus de développement des systèmes distribués demeure rudimentaire et requiert un haut niveau d'expertise bas niveau. Dans cette thèse, nous montrons que les langages métiers (DSL) peuvent réduire avec succès le niveau d'expertise nécessaire pour construire des systèmes distribués efficace et robuste, ce qui rend la programmation de service à portée de développeurs moyens. Nous présentons trois contributions dans ce domaine. Notre première contribution vise la création de services de téléphonie basés sur le protocole SIP. Nous avons défini une machine virtuelle spécifique au domaine SIP et un DSL nommé SPL, offrant au programmeur des notations de haut niveau et des abstractions dédiées pour le développement de services de téléphonie. La robustesse de SPL a été un facteur clé dans l'accélération du déploiement de service. Une variété de services ont été écrits en SPL, ce qui démontre l'utilité et la facilité de programmation du langage. Notre deuxième contribution est Zébu, une approche basée sur les DSL pour le développement des couches de traitement protocolaires des applications réseau. Nous avons démontré, à travers diverses expériences, que cette approche est une alternative fiable pour le développement manuel des couches de traitement protocolaires. Le code généré par Zébu a de bonnes performances et a une empreinte mémoire nettement inférieur à des solutions existantes codées manuellement, tout en garantissant les propriétés de robustesse et de performance. La troisième contribution de cette thèse est z2z, une approche générative à la construction de passerelles qui permet la communication entre des appareils qui utilisent des protocoles incompatibles. Z2z inclus un compilateur qui vérifie des propriétés de correction et un support d'exécution qui masque les détails bas niveau au développeur de la passerelle. Nous avons utilisé z2z pour générer automatiquement des passerelles entre différents protocoles incompatibles. Les passerelles générées fonctionnent avec une faible empreinte mémoire et pratiquement sans aucun surcoût à l'exécution.
218

Comparaison dynamique entre fronts froids ouest-européens et est nord-américains

Fortin, Olivier January 2007 (has links) (PDF)
L'objectif principal de ce projet est de déterminer quels sont les processus physiques (forçages) responsable de la dynamique des fronts froids, ce qui n'a jamais été fait quantitativement. En premier lieu, une étude diagnostique est effectuée sur un échantillon de dix fronts froids continentaux nord-américains pour vérifier s'il existe une dynamique propre à ces fronts. Une étude semblable est faite sur dix fronts froids maritimes ouest-européens et les résultats pour chacun des groupes sont comparés. Les diagnostics portent sur le déplacement des fronts (tendances de tourbillon) et sur le mouvement vertical qui leur est associé. Nous utilisons l'outil DIONYSOS pour effectuer ces diagnostics. Les résultats obtenus ont révélé des différences fondamentales entre les dynamiques des fronts continentaux nord-américains et maritimes ouest-européens. Le Laplacien de l'advection de température est le forçage dominant sur la dynamique nord-américaines alors que c'est l'advection de tourbillon qui régie une grande partie de la dynamique des fronts ouest-européens. Cette différence importante s'explique par des gradients de température en bas niveau beaucoup plus prononcés sur le continent nord-américain que sur les régions côtières de l'ouest de l'Europe. La très faible variabilité observée dans la dynamique de chaque groupe laisse supposer une dynamique propre à chacune des deux populations frontales. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Fronts froids, Déplacement, Mouvement vertical, Diagnostique, DIONYSOS, Forçage, Météorologie.
219

La turbulence au sommet : l'industrie canadienne de logiciels

Chagnon, Julien January 2007 (has links) (PDF)
L'industrie de l'édition du logiciel joue un rôle central au sein des technologies de l'information et de communications (TICs). L'économie du savoir demeure une voie d'avenir incontournable et la vitalité nationale de l'industrie de l'édition de logiciels semble comporter plusieurs enjeux stratégiques. Nous constatons une animation certaine parmi les entreprises du domaine. Il semble exister une grande turbulence parmi celles-ci. L'objectif du mémoire est d'obtenir des informations approfondies qui aideraient à comprendre la dynamique industrielle de ce secteur. Plus précisément, ce mémoire dépeint la turbulence observée parmi les classements des cent plus grandes entreprises indépendantes d'édition de logiciels au Canada. La période de l'étude s'étend entre les années 1993 et 2005. Il s'agit d'examiner la mouvance des firmes dans l'industrie, c'est-à-dire d'examiner le flux des entrées et des sorties de celles-ci et d'identifier les causes. Cette recherche a été possible grâce à l'analyse des données recueillies et classées par la boîte de consultation ontarienne Branham Group entre les années 1994 et 2004. Nous avons complété ces données par des investigations supplémentaires. Celles-ci ont été utiles pour connaître la trajectoire temporelle de chacune de ces firmes. Il fut ensuite envisageable de faire des analyses plus poussées en incorporant le statut de ces firmes. Les résultats de la recherche démontrent que la turbulence est élevée et qu'elle provient en grande partie des activités de F-As. Les entreprises étrangères sont en partie responsables de celles-ci. Il semble qu'elles se procurent un bon nombre des compagnies qui ont généré les plus hauts revenus au cours de la période étudiée. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Industrie canadienne de l'édition du logiciel, Turbulence industrielle, Activités de fusions et acquisitions (F-A).
220

Facteurs décisionnels pour l'implantation d'un ERP dans les PME : le rôle de l'évaluation des bénéfices tangibles et intangibles

Braud, Olivier January 2008 (has links) (PDF)
Les entreprises sont de plus en plus dépendantes des technologies de l'information. Ces technologies sont cependant complexes et coûteuses à mettre en place. Elles nécessitent une évaluation ex-ante rigoureuse des coûts et des bénéfices afin d'assurer une implantation réussie. À ce jour, la majorité des grandes entreprises sont munies de systèmes d'information tels les Entreprise Resource Planning (ERP), et plusieurs modèles de recherche sur l'évaluation de ces systèmes adaptés à ce contexte ont été développés dans la littérature. Cependant, le marché des ERP au niveau des grandes entreprises connaît un ralentissement, le marché des PME paraît alors propice à la fois pour les éditeurs de logiciels et pour les entreprises qui ont besoin de leurs outils. Cette recherche se concentre sur les PME, plus particulièrement sur comment elles évaluent les projets ERP et quels rôles jouent les aspects intangibles dans ces évaluations. Au travers de cinq études de cas réalisées auprès de trois entreprises manufacturières et deux entreprises de service, l'étude propose une adaptation du modèle présenté par Hares et Royle (1994) pour permettre une évaluation plus représentative des coûts et des bénéfices générés par ces systèmes. Les résultats de cette recherche montrent que, malgré une prise de conscience des PME, les projets ERP nécessitent des méthodes d'évaluation différentes des autres projets TI, et que peu de PME possèdent la maturité suffisante pour développer un processus d'évaluation adéquat. L'aspect intangible des bénéfices lors de l'évaluation semble être identifié dans 40% des cas étudiés mais pris en compte dans l'évaluation ex-ante seulement dans 20% des cas étudiés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Technologies de l'information, TI, ERP, PME, Évaluation des bénéfices, Ex-ante, Intangible.

Page generated in 0.0395 seconds