• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2447
  • 1618
  • 1255
  • 21
  • 6
  • 6
  • 2
  • 2
  • 1
  • Tagged with
  • 5650
  • 3140
  • 3002
  • 1276
  • 692
  • 690
  • 662
  • 645
  • 620
  • 597
  • 486
  • 476
  • 457
  • 453
  • 438
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Analyse des besoins de formation et de support en micro-informatique pour le personnel de l'Université du Québec à Chicoutimi

Gagné, Gilles January 1989 (has links) (PDF)
La micro-informatique est maintenant un outil d'assistance dans les tâches de la majorité du personnel de l'UQAC. Par ses références à des ouvrages spécialisés et par une enquête détaillée, notre étude a démontré que la formation constitue une dimension indissociable non seulement du processus d'implantation de la micro-informatique, mais aussi de tout le support nécessaire à la maîtrise de l'outil par l'usager, delà les gains d'efficience et d'efficacité espérés par l'organisation. Nos principales réflexions portaient sur le type de formation et de support en micro-informatique à offrir au personnel de l'UQAC. Pour ce faire, nous avons d'abord identifié des caractéristiques d'homogénéité dans les tâches, ce qui est un exercice nécessaire et recommandé par tous les experts du domaine de la formation. Cela nous a permis de regrouper les employés de bureau, le personnel administratif, les professeurs et le personnel spécialisé professionnel et technique. Ayant ensuite examiné les différents éléments caractéristiques de la formation et les objectifs à poursuivre, nous avons suivi le principe fondamental suggéré par les experts, à savoir qu'il est indispensable de coordonner les activités de support et de formation par une structure administrative visible et "vivante". Le centre de formation et de support en micro-informatique a été conçu à partir des modèles vécus dans diverses organisations et adapté aux caractéristiques de notre institution en fonction d'une enquête effectuée auprès de tous les employés utilisant la micro-informatique, soit près de 250 personnes. Les personnes interrogées ont retourné leur questionnaire dans une proportion de 70 %; elles nous ont indiqué que le micro-ordinateur leur servait en moyenne le tiers de leur temps passé au travail et pratiquement une heure sur deux pour les employés de bureau. On remarque aussi dans leurs réponses que leurs connaissances et habiletés technologiques sont suffisantes pour récupérer les bénéfices de la micro-informatique qui consistent en un rendement amélioré du travailleur et une qualité du travail accrue, de même qu'une augmentation sensible de la motivation, des qualifications et de la valorisation au travail. Cependant, on note presque à l'unanimité le manque de personnes ressources qualifiées et disponibles pour répondre aux problèmes rencontrés dans l'utilisation de la microinformatique. Le personnel se sent seul dans son apprentissage. De plus, l'enquête indique que plus de 1000 demandes de support en micro-informatique sont adressées tous les mois à des collègues ou au service informatique et que ces réponses demeurent généralement insatisfaites. Les mêmes remarques apparaissent aussi au niveau de la formation. Elle est peu présente, surtout chez les groupes autres que les employés de bureau. On désire plus de sessions personnalisées, adaptées au rythme et à la disponibilité du requérant. À partir de ces renseignements, nous jugeons qu'il est justifié de créer un service de support et de formation en micro-informatique à l'UQAC. De plus, le personnel est d'accord pour que le service soit centralisé et dépende du service informatique. En outre, avec le projet de restructuration de ce service qui reconnaît l'importance d'une structure de support à l'usager, nous croyons que le projet a toutes les chances de réussir et de permettre à l'institution de conserver et d'améliorer les gains de productivité constatés et causés par l'arrivée de la micro-informatique. Ce type d'étude correspond bien à la nature d'un mémoire de maîtrise. Il permet de se pencher de façon rigoureuse et méthodique sur un sujet dont l'importance n'a d'égale que sa pertinence à s'appliquer dans un milieu professionnel. La gestion de projet possède en plus cette qualité, cet art de pouvoir considérer une certaine problématique sous son angle le plus global, puis de la décortiquer par des méthodes d'analyse qui nous révèlent sa dimension organisationnelle, structurelle, environnementale et financière. La gestion de projet s'apparente à la recherche appliquée dans le sens où elle vise la création d'un objet soit tangible, soit intellectuel qui, à ce moment-là, est de nature à augmenter la connaissance d'un phénomène. Dans notre cas, c'est la maîtrise de nos activités professionnelles, la connaissance du milieu de travail par la réflexion méthodique. Finalement, et c'est là toute la richesse d'un mémoire, la démarche permet de comprendre une situation et de susciter d'autres interrogations. La représentation imagée consisterait en une spirale dont le chemin nous mène du présent sujet vers une vision et une compréhension plus profonde et plus précise des éléments de la problématique. Dans le cas de notre étude, la poursuite de notre réflexion serait l'examen de l'application de notre proposition et l'évaluation réelle des bénéfices économiques à moyen terme du centre de support et de formation en micro-informatique de l'UQAC.
352

L'informatisation des PME au Saguenay : une étude empirique

Kang, Lok Kessaro January 1990 (has links) (PDF)
II existe peu d'études concernant l'informatisation des PME au Saguenay. Pourtant on accorde beaucoup d'importance aux PME dans l'économie de la région. Il nous est apparu nécessaire de connaître le degré de pénétration de l'informatique et son utilisation dans les entreprises régionales. Tel est l'objectif primordial de cette recherche. Ainsi, la technologie de l'information par le biais de l'utilisation des ordinateurs dans les PME tient-elle une place privilégiée dans le fonctionnement des PME chicoutimiennes et jonquiéroises ? Pour ce faire, plusieurs dimensions ont été étudiées, notamment les PME en tant qu'organisation, les décideurs-acteurs, les pratiques de gestion applicables à l'entreprise et à l'informatique et le système d'information. Ces dimensions permettent de répertorier les PME informatisées, de tracer le profil de ces dernières et de les comprendre, ce qui correspond au premier objectif à atteindre. Quant au second objectif, il vise à vérifier l'existence ou non d'une corrélation significative entre le personnel informatique et les trois variables indépendantes que sont respectivement la taille de l'entreprise, les fonctions du système informatique et l'âge des systèmes. Les résultats saillants de cette recherche sont les suivants : 1- Les PME : Les PME informatisées sont en progression. Elles sont à 23% pour le secteur administratif de Chicoutimi et 29% pour celui de Jonquière et ses environs. Ces taux sont nettement supérieurs au taux mentionné dans l'étude de M. Gauthier et M. Gobeil en 1984. De plus les PME sont identifiées et répertoriées, pouvant être utilisées comme référence à d'autres travaux subséquents. Elles sont des entreprises indépendantes à 83% comparativement à 17% pour les filiales. 70% des PME étudiées* existaient depuis plus de 10 ans. Les industries de construction (38%) et les manufactures (45%) constituent les secteurs d'activités des PME de notre échantillon et dont leur chiffre d'affaires dépasse 5 millions de dollars. Le personnel informatique comprenant les techniciens en informatique (les programmeurs, les analystes-programmeurs, les analystes), est restreint. Sur 53 entreprises étudiées, on ne dénombre que 34 techniciens en informatique, soit un taux de 0,64 technicien par entreprise. 2- Les pratiques de gestion utilisées dans les PME n'atteignent pas un haut niveau dans l'ensemble. Cependant, on constate que les activités de gestion chez les entreprises de 50 employés et plus occupent des proportions plus élevées que celles des entreprises ayant moins de 50 employés. Le contrôle est relativement appréciable non seulement dans l'entreprise mais aussi en ce qui a trait à l'informatique. Une faiblesse marquée en ce qui a trait à la gestion de l'informatique est constatée dans la majorité des PME étudiées. 3- Les décideurs-acteurs des PME ont, en général, une formation universitaire (61%). Ils sont de sexe masculin (85%) et âgés de 30 à 39 ans (52%) et de 40 à 49 ans (25%). Environ le tiers d'entre eux ont une formation en informatique et l'expérience moyenne en informatique est de 4 ans. L'expérience en gestion des décideurs-acteurs des PME est de 66% en administration générale, 52% en comptabilité et en finance, 32% en production et 19% seulement en marketing. 4- Le système d'information : Les applications comptables (utilisant l'ordinateur) sont très populaires dans les PME notamment le grand Livre (100%), les comptes-fournisseurs (100%), la paye (96%), les comptes-clients (93%). L'utilisation du traitement de texte sur l'ordinateur (76%) occupe la seconde place dans les PME étudiées après les applications comptables. C'est une nette amélioration par rapport à l'étude de M. Gauthier et M. Gobeil où le traitement de texte fut pratiquement inexistant en 1984. La fabrication assistée par l'ordinateur (15%) et la conception assistée par l'ordinateur (11%) sont les deux types de technologie demandés aux décideurs-acteurs. Les ordinateurs personnels sont les plus utilisés dans les PME : IBM et ses compatibles sont à 66% comparativement à 13% pour les ordinateurs APPLE. Et, de plus les PME (soit 3/4 d'entre elles) achètent les équipements informatiques aux fournisseurs régionaux. Le BASIC est le langage informatique le plus utilisé (25%) dépassant le fameux dBASE qui n'occupe que 15% dans les PME étudiées. Dans l'ensemble, des décideurs-acteurs des PME ont exprimé leurs perceptions et attitudes positives face à l'informatisation de leurs entreprises. Leur participation au processus d'informatisation se situe entre "Plutôt élevé" et "Assez élevé". Ce sont les contrôleurs et les responsables du service de comptabilité et des finances qui sont les plus impliqués dans l'informatisation. La satisfaction quant à la qualité de l'information obtenue est presque unanime chez tous les décideurs-acteurs des PME. Quant au deuxième objectif, les résultats statistiques pour la première hypothèse valident l'utilité de la présence du technicien en informatique par rapport à la taille de l'entreprise. Ainsi, la première hypothèse est acceptée. Les résultats des traitements statistiques pour la deuxième hypothèse confirment que la présence du technicien en informatique est corrélée avec l'âge des systèmes. L'entreprise qui s'est informatisée depuis un certain temps a de chance d'avoir des techniciens en informatique qui forment son personnel informatique. Ainsi, la deuxième hypothèse est confirmée. Par contre, les résultats statistiques de la troisième hypothèse ne permettent pas de conclure que la présence des techniciens en informatique est dépendante des applications informatiques et/ou des fonctions du système informatique de l'entreprise. Ainsi, cette hypothèse a été rejetée car il existe un lien d'indépendance entre ces deux variables.
353

Algorithmes de fourmis Pareto pour résoudre un problème d'ordonnancement représentatif de contextes réels

LeBel, Annie January 2015 (has links) (PDF)
L’ordonnancement multi-objectifs est un domaine de recherche fertile. Les entreprises de tous les secteurs d’activités sont appelées à résoudre des problèmes complexes, de grandes dimensions, souvent de nature combinatoire et généralement à plusieurs objectifs contradictoires ou non commensurables. Ces entreprises doivent alors être en mesure de traiter avec des problèmes multi-objectifs (PMO). Dans le domaine de l’ordonnancement, la machine unique est un problème classique. Toutefois, les hypothèses simplificatrices émises en théorie créent un écart entre la pratique et la théorie. Un des écarts régulièrement présent est la considération du temps de réglage entre les tâches indépendant de la séquence. Dit autrement, le temps de réglage est considéré comme négligeable en théorie. Cependant, cette simplification n’est pas représentative de la plupart des contextes réels. Différentes études présentent l’impact des temps de réglage sur les systèmes de production industrielle. La conséquence de minimiser les temps de réglage est l’amélioration des délais de livraison (Conner 2009; Panwalkar et al. 1973). Pour réduire les écarts entre la pratique et la théorie, plusieurs PMO traitant de la machine unique ont proposé d’ajouter des caractéristiques pour réduire cet écart, dont la machine unique multi-objectifs avec fenêtre d’échéance d’Arroyo et al (Arroyo et al. 2011) (MURMO). La résolution d’un PMO consiste à produire un ensemble de solutions de compromis entre les objectifs avec ou sans l’aide d’un décideur. Talbi (2009) propose une classification des méthodes de résolution qui comprend, par exemple, les approches Pareto. Ces dernières utilisent la dominance au sens Pareto (Edgeworth 1881; Pareto 1896) pour évaluer la qualité des solutions. Seules les solutions non-dominées sont conservées dans l’ensemble de solutions de compromis, aussi appelé ensemble de solutions Pareto-Optimal (PO). Parmi les méthodes de résolutions, les algorithmes évolutionnaires (AE) connaissent de bons résultats en uni-objectif. Schaffer (1985) et Goldberg (1989) proposent les premières méthodes de résolution multi-objectifs utilisant les AE. Plusieurs AE ont été adaptés pour résoudre un PMO, dont les plus grandes réussites: NSGA-II (Deb et al. 2000), PMSMO (Zinflou et al. 2008) et GISMOO (Zinflou et al. 2012). NSGA-II pose les fondements des AE Pareto en introduisant le concept d’assignation de performance. Cette assignation évalue la qualité d’une solution par rapport aux autres selon des facteurs de dominance et d’isolement. Le facteur de dominance évalue à quel point la solution domine les autres solutions d’un ensemble. Le facteur d’isolement évalue la densité des solutions qui entourent la solution estimée. Ce mémoire présente l’adaptation de trois AE Pareto de la littérature au problème MURMO. Cette adaptation permet de créer une banque de résultats de comparaison. Les AE Pareto sont, par la suite, comparés avec le seul algorithme connu qui résout le problème MURMO, le MOVNS3 (Arroyo et al. 2011). La littérature dénombre d’autres types de méthodes de résolution basées sur la construction d’une population de solutions plutôt que sur l’évolution de la population au travers de générations, tel que vu en AE. Il y a entre autres les algorithmes appartenant à la famille de l’optimisation par colonie de fourmi (OCF) qui connaissent aussi de bons résultats en uni-objectif et leur utilisation pour résoudre les PMO ne fait qu’augmenter. La revue de la littérature des algorithmes d’OCF Pareto démontre que peu d’algorithmes sont basés sur l’ « ant colony system » (ACS) et que le nombre de colonies a un impact sur la conception de la méthode de résolution. Ce mémoire propose la comparaison entre une méthode multi-colonies et une méthode uni-colonie. Également, cette proposition démontre l’intérêt d’emprunter des concepts appartenant traditionnellement aux algorithmes évolutionnaires pour les adapter à d’autres algorithmes. La méthode multi-colonie est une adaptation pour le problème MURMO de l’algorithme proposé par Iredi et al (2001). Cet algorithme n’utilise pas d’assignation de performance des AE Pareto. L’algorithme d’OCF est basé sur un AS. Pour sa part, la méthode uni-colonie est représentée par la transposition de l’algorithme « genetic immune system for multiple objective optimization » (GISMOO) (Zinflou et al. 2012) vers un algorithme ACS. Cette transposition permet d’inclure l’assignation de performance dans l’algorithme d’OCF. Une comparaison équitable est proposée entre les méthodes multi-colonies et uni-colonie. Pour terminer, le mémoire présente une bonification de la transposition. Cette bonification a pour ambition d’améliorer les résultats de la méthode uni-colonie.
354

Assemblage adaptatif de génomes et de méta-génomes par passage de messages

Boisvert, Sébastien 20 April 2018 (has links)
De manière générale, les procédés et processus produisent maintenant plus de données qu’un humain peut en assimiler. Les grosses données (Big Data), lorsque bien analysées, augmentent la compréhension des processus qui sont opérationnels à l’intérieur de systèmes et, en conséquence, encouragent leur amélioration. Analyser les séquences de l’acide désoxyribonucléique (ADN) permet de mieux comprendre les êtres vivants, en exploitant par exemple la biologie des systèmes. Les séquenceurs d’ADN à haut débit sont des instruments massivement parallèles et produisent beaucoup de données. Les infrastructures informatiques, comme les superordinateurs ou l’informatique infonuagique, sont aussi massivement parallèles de par leur nature distribuée. Par contre, les ordinateurs ne comprennent ni le français, ni l’anglais – il faut les programmer. Les systèmes logiciels pour analyser les données génomiques avec des superordinateurs doivent être aussi massivement parallèles. L’interface de passage de messages permet de créer de tels logiciels et une conception granulaire permet d’entrelacer la communication et le calcul à l’intérieur des processus d’un système de calcul. De tels systèmes produisent des résultats rapidement à partir de données. Ici, les logiciels RayPlatform, Ray (incluant les flux de travail appelé Ray Meta et Ray Communities) et Ray Cloud Browser sont présentés. L’application principale de cette famille de produits est l’assemblage et le profilage adaptatifs de génomes par passage de messages. / Generally speaking, current processes – industrial, for direct-to-consumers, or researchrelated – yield far more data than humans can manage. Big Data is a trend of its own and concerns itself with the betterment of humankind through better understanding of processes and systems. To achieve that end, the mean is to leverage massive amounts of big data in order to better comprehend what they contain, mean, and imply. DNA sequencing is such a process and contributes to the discovery of knowledge in genetics and other fields. DNA sequencing instruments are parallel objects and output unprecedented volumes of data. Computer infrastructures, cloud and other means of computation open the door to the analysis of data stated above. However, they need to be programmed for they are not acquainted with natural languages. Massively parallel software must match the parallelism of supercomputers and other distributed computing systems before attempting to decipher big data. Message passing – and the message passing interface – allows one to create such tools, and a granular design of blueprints consolidate production of results. Herein, a line of products that includes RayPlatform, Ray (which includes workflows called Ray Meta and Ray Communities for metagenomics) and Ray Cloud Browser are presented. Its main application is scalable (adaptive) assembly and profiling of genomes using message passing.
355

Informatique instrumentale (logiciels et matériels) d’un spectromètre de Résonance Quadrupolaire Nucléaire : Nouvelle méthode de détection des molécules azotées / General software and digital hardware for a nuclear quadrupolar resonance (NQR) instrument : A new detection method for the NQR signal

Hiblot, Nicolas 08 April 2008 (has links)
Malgré l’intérêt actuellement porté à la résonance quadrupolaire nucléaire (RQN), et plus particulièrement à la RQN de l’azote 14 (par exemple, pour la détection et la caractérisation des explosifs), il n’existe aucun instrument commercial directement utilisable pour réaliser des expériences de RQN. Cette thèse est consacrée à la mise au point d’un spectromètre, raisonnablement transportable, entièrement réalisé au laboratoire, qui comprend : le système d’émission-réception, la synthèse de fréquence, l’acquisition des données, les sondes et un logiciel dédié, pour gérer l’instrument et pour le traitement des données. Le logiciel de gestion de l’instrument et des expériences constitue l’apport essentiel de cette thèse. En outre, une nouvelle méthode, fondée sur un traitement particulier du signal, est proposée en vue de l’amélioration de la sensibilité de l’expérience. / In spite of a renewed interest in NQR (NQR), especially of nitrogen-14 (for instance, for the detection and characterization of explosives), a full NQR instrument, ready to use in the laboratory, is not commercially available. This thesis is devoted to the design of an entirely homemade spectrometer, reasonably transportable, including the transmit-receive system, frequency generation, data acquisition, probes and a specialized software for driving the instrument and for data processing. The essential contribution of this thesis is the software for managing the whole instrument and controlling various experiences. Moreover, a new method is proposed for improving NQR sensitivity. It is based on a particular processing of the NQR signal.
356

Infrastructure logicielle multi-modèles pour l'accès à des services en mobilité / Multi-model software infrastructure for the access to services in mobility

Bocquet, Aurélien 01 December 2008 (has links)
Les intergiciels sont aujourd'hui incontournables lorsqu'il s'agit de développer des applications réparties. Chaque conception requiert des outils adaptés et performants. De plus, leur contexte de déploiement nécessite des mécanismes particuliers afin de s'y adapter. Pour cela, les intergiciels proposent des modèles de programmation et de communication différents, fournissant des moyens de communication efficaces dans certaines situations. En mobilité, l'interopérabilité devient inévitable, et le contexte varie. Cette thèse traite des impératifs d'un intergiciel en mobilité. Nous proposons ainsi une approche multi-modèles, basée sur les travaux actuels dans ce domaine, et présentant des concepts novateurs. Cette approche se compose d'un modèle de programmation générique et d'une combinaison de modèles de communication. Des politiques d'adaptation définissent les règles de combinaison des modèles en fonction d'observations du contexte, et des mécanismes d'adaptation dynamique permettent de prendre en compte en temps réelle contexte, et de reconfigurer le système pendant son exécution. Nous avons validé notre approche au travers d'une application concrète aux problèmes engendrés par l'utilisation d'un proxy Internet à bord des trains: le développement d'un greffon multi-modèles a illustré et justifié notre approche, et l'évaluation de ce greffon a montré les bénéfices de celle-ci face aux changements de contexte. Nous avons également conçu et développé notre infrastructure logicielle multi-modèles, proposant tous les concepts cités, et permettant ainsi de profiter des bénéfices de notre approche multi-modèles. / The middlewares are nowadays unavoidable when developing dlstributed applications. Every design needs adapted and efficient· tools. ln addition, their context of deployment needs special mechanisms in order to adapt to it. To do so, the middlewares offer different programming and communication models, supplying efficient ways to communicate in some situations. ln mobility, interoperability becomes unavoidable, and the context changes. This thesis deals with the requirements of a middleware in mobility. We thus propose a multi-model approach, based on the current works in this domain, and presenting innovative concepts. This approach is composed by a generic programming model and by a combination of communication models. Adaptation policies define the rules of combination of models, regarding context observations and dynamic adaptation mechanisms allow to handle the context in realtime, and to reconfigure the system when it is running. Our approach has been validated through a concrete application to problems caused by the use of an embedded Intemet proxy in trains: the design and development of a mufti-model graft iIIustrated and justified our approach, and the evaluation of this graft demonstrated the benefits of this approach via-a-vis the changes of context. We also designed and developed our multi-model software infrastructure, proposing ail these concepts, and thus allowing to benefit from our multi-model approach.
357

Tertiarisierung und Informatisierung in Europa : eine empirische Analyse des Strukturwandels in Deutschland, Frankreich, Italien und Großbritannien /

Lauterbach, Nora, January 2004 (has links)
Diss.--Wirtschaft--Johannes Guntenberg Universität Mainz, 2003. / Bibliogr. p. 181-197. Index.
358

Lernprozesse am Computer : theoretische und empirische Annäherungen /

Sunnen, Patrick, January 1900 (has links)
Diss.--Universität Frankfurt-am-Main, 2005. / Bibliogr. p. 153-170.
359

Réalisation d'un système de gestion de fichiers en langage Pascal pour MODULECO

Gardien, Robert. January 2008 (has links)
Reproduction de : Mémoire d'ingénieur : informatique : Grenoble, CNAM : 1982. / Titre provenant de l'écran-titre. Bibliogr.
360

Un noyau pour la communication et la synchronisation de processus répartis

Sanchez Arias, Victor German. January 2008 (has links)
Reproduction de : Thèse de docteur-ingénieur : informatique : Grenoble, INPG : 1985. / Titre provenant de l'écran-titre.

Page generated in 0.0727 seconds