• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1767
  • 447
  • 240
  • 53
  • 41
  • 9
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • Tagged with
  • 2709
  • 839
  • 539
  • 437
  • 379
  • 338
  • 273
  • 271
  • 240
  • 240
  • 210
  • 208
  • 186
  • 182
  • 180
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Ingenjörsvetenskapens tidevarv : Ingenjörsvetenskapsakademin, Pappersmassekontoret, Metallografiska institutet och den teknologiska forskningen i början av 1900-talet /

Sundin, Bo. January 1981 (has links)
Akademisk avhandling--Historia--Umeå, 1982. / Bibliogr. p. 247-257. Index. Résumé en anglais.
12

Contribution à l'étude et au développement de techniques de gestion de fenêtres / Contribution to the study and development of window management techniques

Xu, Quan 15 December 2010 (has links)
Le basculement de fenêtres est une des tâches les plus fréquentes de tout gestionnaire de fenêtres (elle peut avoir lieu plusieurs centaines de fois par jour). Cependant cette tâche peut devenir ardue quand le nombre de fenêtres devient important.Cette thèse propose d’étudier les techniques existantes et de développer de nouvelles techniques de basculement de fenêtres. Pour comprendre comment les utilisateurs gèrent actuellement leurs fenêtres, nous avons développé un logiciel d’enregistrement d’activité pour Windows. Trois techniques ont été développées en se basant sur les résultats de cette étude.Tout d’abord, Push-and-Pull Switching, une technique de basculement de fenêtres utilisant le chevauchement de fenêtres pour implicitement définir des groupes. Cette technique permet par ailleurs de basculer entre des groupes et de changer l’ordre d’affichage de la fenêtre qui a le focus pour modifier son groupe d’appartenance. Des expériences contrôlées ont montré que cette technique peut être jusqu’à 50% plus efficace que d’autres techniques.Ensuite, Stack Scanning est une technique utilisant un widget qui combine le défilement d’écran et de franchissement pour contrôler l’ordre d’affichage des couches de fenêtres visibles. Des expériences contrôlées ont montré que cette technique est plus rapide quand le nombre de fenêtres devient important.Finalement, nous avons proposé onze principes de conception pour faciliter le développement de nouvelles techniques de basculement de fenêtres. WindowTagging a été développée en suivant ces principes. Les évaluations montrent que cette technique est plus efficace qu’Exposé et nettement préférée des utilisateurs. / Window switching is one of the most frequent tasks of any window manager happening several hundred times per day. However this task can become laborious when the number of windows becomes important.This dissertation aims at understanding and developing new switching techniques to help users to improve task switching. In order to understand how users manage their windows, a tool was developed to log user window management activity in mainstream Windows OS. Three techniques: Push-and-Pull Switching, stack scanning and WindowsTagging were designed and developed based on the results of this data.First, Push-and-Pull Switching, a window switching technique using window overlapping to implicitly define groups. Push-and-Pull Switching further allows switching between groups and restacking the focused window to any position to change its group affectation. The empirical evaluations showed that it was 50% faster than other techniques in different scenarios.Second, stack scanning, a window switching technique based on a widget that combines generalized scrolling and crossing to control the stack order of layers of visible windows. The empirical evaluations showed that it was faster than other techniques when the number of windows is high and the visual similarity among windows is important. They also showed that Taskbar was the best choice when the number of windows is small.Finally, to theorize window and group switching, we provided eleven design principles to help designers to design new switching techniques. WindowsTagging was implemented based on these design principles. The empirical evaluations showed that it was faster than Exposé, and participants strongly preferred it.
13

La R&D et l'innovation dans les services : études de cas dans les hôpitaux universitaires du Brésil et de la France / P&D e inovação em serviços : estudos de casos nos hospitais universitarios do Brasil da França / R&D and innovation in services : case studies at University hospitals in Brazil and France

Teixeira Bohrer, Cariza 20 November 2010 (has links)
Les particularités des services influencent différents éléments du processus d’innovation. Ainsi, les caractéristiques du secteur induisent des questions sur la Recherche et Développement (R&D). Dans ce sens, nous cherchons à élucider l’influence de ces particularités sur la caractérisation et la définition de la dynamique des activités de R&D. Basés sur des études de cas provenant d’hôpitaux universitaires brésiliens et français, cette thèse cherche à expliquer quatre points convergents. Premièrement, à partir de la définition du produit des services comme un ensemble de vecteurs, nous avons proposé une association entre la dynamique de compétences et les différentes formes de traitement systématique de connaissances pour résoudre des incertitudes scientifiques et technologiques. Deuxièmement, nous avons associé au vecteur de compétences, les opérations de services liées aux caractéristiques techniques. Troisièmement, la diversité des acteurs qui constituent les forces directrices de cette dynamique ont été analysées. Finalement, quelques caractéristiques liées au processus de R&D et d’innovation ont été identifiées. Les résultats ont démontré que les compétences attachées au processus de génération et d’augmentation du stock de connaissances ont des caractéristiques théoriques et pratiques, mais aussi organisationnelles et relationnelles. Ces compétences, liées à une série d’acteurs, mettent en œuvre différentes opérations de services, qui supportent les connaissances traitées. Ainsi, il a été possible d’identifier quelques caractéristiques des processus de R&D et les différents modèles d’innovation rencontrés. / The particularities of services influence different elements on the innovation process. Although, the characteristics of the sector urge some questions related to research and development (R&D) activities.  In this sense, we try to clarify the influences of these particularities in the characterization and definition of the dynamics of its R&D activities. Based on study cases from Brazilian and French university hospitals, this thesis tries to explain four convergent points. First, based on the definition of the product of services as a set of vectors, we propose an association between the dynamic of competences and different methods of knowledge processing, in a systematic way and with the purpose of solving scientific and technological uncertainties. Second, we associated service operations to the vector of technical characteristics. Third, the diversity of actors that compose the guiding forces of these dynamics was analyzed. Finally, some characteristics related to the R&D and innovation process were identified. The results demonstrated that the competences involved in the process of creating and increasing the stock of knowledge have theoretical and practical characteristics, but also organizational and relational ones. These competences, linked to a series of actors, trigger different service operations, which will support the knowledge processing. Therefore, it was possible to discuss some characteristics related to the R&D process and the different models of innovation found.
14

Domain specific web search

Zhen, Zheng January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
15

La science en Russie : la nouvelle organisation de la recherche /

Boussyguine, Vladislav. January 2005 (has links)
Texte remanié de: Thèse de doctorat--Sciences économiques--Paris 8, 2003. / Bibliogr. p. 177-183.
16

La recherche d'information sur Internet au prisme de la théorie des facettes

Boutin, Eric 08 October 2008 (has links) (PDF)
La théorie des facettes sert de référentiel à cette recherche. Cette théorie a été développée dans le monde de l'information documentaire par Ranganathan (1933, 1967). L'auteur propose de décrire le contenu des documents selon une approche combinatoire et multidimensionnelle qui s'oppose aux classifications mono hiérarchiques en vigueur jusque là. Pour Ranganathan, le contenu de tout document touche à cinq aspects de la réalité : la Personnalité, la matière, l'énergie, l'espace et le Temps. A ces cinq perspectives s'ajoute une facette principale, représentant généralement le domaine de la connaissance auquel on peut rattacher un document particulier (Agriculture, Médecine, etc.). Nous proposons dans ce travail de réinterroger la théorie des facettes de Ranganathan dans une perspective de recherche d'information sur internet. Nous nous interrogerons sur la faisabilité et la mise en oeuvre de telles descriptions pour les documents en ligne. La caractérisation des facettes passe par un travail multidisciplinaire mettant en œuvre des emprunts et des transpositions dans le domaine de la fouille de données, de la psychologie sociale, de l'informatique, des mathématiques, des sciences du langage, de la communication.
17

Recherche d'information sémantique et extraction automatique d'ontologie du domaine

Morneau, Maxime. January 1900 (has links) (PDF)
Thèse (M.Sc.)--Université Laval, 2006. / Titre de l'écran-titre (visionné le 28 mars 2007). Bibliogr.
18

Zwischen Wissenschaft und Wirtschaft : Industrieforschung in Deutschland und Grossbritannien 1880-1936 /

Marsch, Ulrich. January 1900 (has links)
Diss.--Philosophische Fakultät--München--Ludwig-Maximilians-Universität, 1996. / Résumé (20 lignes) en anglais. Bibliogr. p. 518-552 p. Index.
19

La décolonisation de la recherche quantitative : stratégies et obstacles en contexte québécois

Wisniewski, Janec 21 May 2024 (has links)
Depuis la publication de Decolonizing Methodologies, l'érudition méthodologique autochtone fut principalement alignée avec la recherche qualitative, tandis que la recherche quantitative est souvent délaissée en raison d'une méfiance associée aux méthodologies positivistes. Cependant, dans les récentes années, on observe une critique émergente des approches quantitatives de la recherche puisqu'elles placent les peuples autochtones dans un discours déficitaire. Effectivement, on note que les statistiques autochtones ont un caractère négatif qui met l'accent sur les différences, les disparités, les désavantages, les dysfonctionnements et les problèmes sociaux. Cette réalité est problématique puisque les statistiques qui proviennent des analyses quantitatives constituent la principale base de données probantes pour la politique autochtone. Par ailleurs, au Québec, on note que très peu de protocoles de recherche ont été établis par les organisations autochtones et communautés, que les formations éthiques sont inadéquates, etc. Dans ce contexte, ce projet de mémoire explore quels sont les stratégies et les obstacles à la décolonisation de la recherche quantitative au Québec. En somme, en analysant les stratégies et protocoles de recherche par les institutions québécoises et les organismes autochtones, on observe que la majorité des organismes mobilisent conjointement les principes de PCAP®, l'approche basée sur les forces et la recherche participative basée sur la communauté. Ainsi, dans l'absence des stratégies, dont les principes FAIR et CARE, on perçoit qu'au Québec les stratégies de décolonisation de la recherche ciblent autant les approches qualitatives que les approches quantitatives. Par ailleurs, les stratégies organisationnelles ciblent principalement les chercheurs dans leurs responsabilités individuelles envers les communautés, tandis que très peu mettent l'accent sur la nécessité d'apporter des changements institutionnels. En addition, nous identifions un ensemble d'obstacles en lien avec la difficulté de préserver l'anonymat, les difficultés de contrôler les données sur internet, le manque de donnée agrégée de qualité, les difficultés d'établir des relations collaboratives en raison de temps, de financement, de ressources humaines, le manque de mécanismes pour l'application de l'ÉPTC2, etc. / Since the publication of Decolonizing Methodologies, Indigenous methodological scholarship has primarily been aligned with qualitative research, while quantitative researchis often neglected due to a distrust associated with positivist methodologies. However in recent years, we have observed an emerging criticism of quantitative approaches toresearch because they place indigenous peoples in a deficit discourse. Indeed, indigenousstatistics are criticized for being highly negative and for emphasizing differences, disparities, disadvantages, dysfunctions, and social problems. This reality is problematicsince the statistics that come from quantitative analyzes constitute the main evidencebase for Indigenous policy. Furthermore, in Quebec, we note that very few research protocols have been established by indigenous organizations and communities, that ethicaltraining is inadequate, etc. In this context, this project explores the strategies and obstacles to the decolonization of quantitative research in Quebec. In short, by analyzingthe research strategies and protocols by Quebec institutions and Indigenous organizations, we observe that most organizations jointly mobilize the principles of OCAP®, the strengths-based approach and community-based participatory research. Thus, in theabsence of strategies, including the FAIR and CARE principles, we see that in Quebec the strategies for decolonizing research target both qualitative and quantitativeapproaches. Furthermore, organizational strategies mainly target researchers in theirindividual responsibilities towards communities, while very few emphasize the need tomake institutional changes. In addition, we identify a set of obstacles linked to the difficulty of preserving anonymity, the erroneous use of secondary data, publicly accessibledata or data protected by law, the difficulties of controlling data on the internet andthe emergence of cybercolonialism, the lack of quality aggregated data, the difficultiesof establishing collaborative relationships due to time, financing, human resources, theabsence of regulation of artificial intelligence, the lack of mechanisms for the applicationof TCPS2, etc.
20

Métaheuristiques parallèles sur GPU / Parallel metaheuristics on GPU

Luong, Thé Van 01 December 2011 (has links)
Les problèmes d'optimisation issus du monde réel sont souvent complexes et NP-difficiles. Leur modélisation est en constante évolution en termes de contraintes et d'objectifs, et leur résolution est coûteuse en temps de calcul. Bien que des algorithmes approchés telles que les métaheuristiques (heuristiques génériques) permettent de réduire la complexité de leur résolution, ces méthodes restent insuffisantes pour traiter des problèmes de grande taille. Au cours des dernières décennies, le calcul parallèle s'est révélé comme un moyen incontournable pour faire face à de grandes instances de problèmes difficiles d'optimisation. La conception et l'implémentation de métaheuristiques parallèles sont ainsi fortement influencées par l'architecture parallèle considérée. De nos jours, le calcul sur GPU s'est récemment révélé efficace pour traiter des problèmes coûteux en temps de calcul. Cette nouvelle technologie émergente est considérée comme extrêmement utile pour accélérer de nombreux algorithmes complexes. Un des enjeux majeurs pour les métaheuristiques est de repenser les modèles existants et les paradigmes de programmation parallèle pour permettre leurdéploiement sur les accélérateurs GPU. De manière générale, les problèmes qui se posent sont la répartition des tâches entre le CPU et le GPU, la synchronisation des threads, l'optimisation des transferts de données entre les différentes mémoires, les contraintes de capacité mémoire, etc. La contribution de cette thèse est de faire face à ces problèmes pour la reconception des modèles parallèles des métaheuristiques pour permettre la résolution des problèmes d'optimisation à large échelle sur les architectures GPU. Notre objectif est de repenser les modèles parallèles existants et de permettre leur déploiement sur GPU. Ainsi, nous proposons dans ce document une nouvelle ligne directrice pour la construction de métaheuristiques parallèles efficaces sur GPU. Le défi de cette thèse porte sur la conception de toute la hiérarchie des modèles parallèles sur GPU. Pour cela, des approches très efficaces ont été proposées pour l'optimisation des transferts de données entre le CPU et le GPU, le contrôle de threads, l'association entre les solutions et les threads, ou encore la gestion de la mémoire. Les approches proposées ont été expérimentées de façon exhaustive en utilisant cinq problèmes d'optimisation et quatre configurations GPU. En comparaison avec une exécution sur CPU, les accélérations obtenues vont jusqu'à 80 fois plus vite pour des grands problèmes d'optimisation combinatoire et jusqu'à 2000 fois plus vite pour un problème d'optimisation continue. Les différents travaux liés à cette thèse ont fait l'objet d'une douzaine publications comprenant la revue IEEE Transactions on Computers. / Real-world optimization problems are often complex and NP-hard. Their modeling is continuously evolving in terms of constraints and objectives, and their resolution is CPU time-consuming. Although near-optimal algorithms such as metaheuristics (generic heuristics) make it possible to reduce the temporal complexity of their resolution, they fail to tackle large problems satisfactorily. Over the last decades, parallel computing has been revealed as an unavoidable way to deal with large problem instances of difficult optimization problems. The design and implementation of parallel metaheuristics are strongly influenced by the computing platform. Nowadays, GPU computing has recently been revealed effective to deal with time-intensive problems. This new emerging technology is believed to be extremely useful to speed up many complex algorithms. One of the major issues for metaheuristics is to rethink existing parallel models and programming paradigms to allow their deployment on GPU accelerators. Generally speaking, the major issues we have to deal with are: the distribution of data processing between CPU and GPU, the thread synchronization, the optimization of data transfer between the different memories, the memory capacity constraints, etc. The contribution of this thesis is to deal with such issues for the redesign of parallel models of metaheuristics to allow solving of large scale optimization problems on GPU architectures. Our objective is to rethink the existing parallel models and to enable their deployment on GPUs. Thereby, we propose in this document a new generic guideline for building efficient parallel metaheuristics on GPU. Our challenge is to come out with the GPU-based design of the whole hierarchy of parallel models.In this purpose, very efficient approaches are proposed for CPU-GPU data transfer optimization, thread control, mapping of solutions to GPU threadsor memory management. These approaches have been exhaustively experimented using five optimization problems and four GPU configurations. Compared to a CPU-based execution, experiments report up to 80-fold acceleration for large combinatorial problems and up to 2000-fold speed-up for a continuous problem. The different works related to this thesis have been accepted in a dozen of publications, including the IEEE Transactions on Computers journal.

Page generated in 0.0417 seconds