• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • 1
  • Tagged with
  • 6
  • 6
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Défi de la performance et vision partagée des acteurs : application à la gestion hospitalière

Teil, Alice 04 January 2002 (has links) (PDF)
La problématique de notre thèse est la performance hospitalière, son contexte, ses fondements, ses conditions de réalisation. La quête de performance apparaît en réponse à la crise de légitimité que connaissent tant les secteurs publics que les secteurs privés. Dans le champ hospitalier, face à cette crise, les pouvoirs publics ont réformé les modes de régulation de l'offre de soins, mais ces réformes achoppent sur le manque de vision partagée des fondements de la performance. Celle-ci est tour à tour appréhendée par les acteurs sur la base de quatre types de modèles : objectifs rationnels, structure, processus internes, et relations humaines. Ceci conduit à une vision éclatée de la performance et à des divergences dans les décisions et actions individuelles. Or, la performance est un construit social et son amélioration repose sur une vision partagée de ses fondements, donc nécessite d'en revoir les modalités d'appréhension, en les centrant non pas sur la recherche d'outils supplémentaires d'évaluation de l'activité, mais sur la recherche du sens commun de la performance. C'est pourquoi dans le cadre de recherches-actions, nous avons travaillé sur les modalités d'obtention d'une vision partagée de la performance au niveau de l'hôpital, lors de la définition du projet d'établissement, pour assurer a priori une convergence des décisions et actions individuelles vers les objectifs. Au sein de l'hôpital, la vision partagée de la performance repose sur une vision partagée des enjeux de la performance, du diagnostic de la situation et des priorités définies. Ces trois points d'appui de la vision partagée s'inscrivent dans les méta-dimensions de la performance (performance verticale, horizontale et latérale) et se déclinent de manière singulière pour chacun des établissements selon leurs contingences propres.
2

Modèles de performance pour l'adaptation des méthodes numériques aux architectures multi-coeurs vectorielles. Application aux schémas Lagrange-Projection en hydrodynamique compressible / Improving numerical methods on recent multi-core processors. Application to Lagrange-Plus-Remap hydrodynamics solver.

Gasc, Thibault 06 December 2016 (has links)
Ces travaux se concentrent sur la résolution de problèmes de mécanique des fluides compressibles. De nombreuses méthodes numériques ont depuis plusieurs décennies été développées pour traiter ce type de problèmes. Cependant, l'évolution et la complexité des architectures informatiques nous poussent à actualiser et repenser ces méthodes numériques afin d'utiliser efficacement les calculateurs massivement parallèles. Au moyen de modèles de performance, nous analysons une méthode numérique de référence de type Lagrange-Projection afin de comprendre son comportement sur les supercalculateurs récents et d'en optimiser l'implémentation pour ces architectures. Grâce au bilan de cet analyse, nous proposons une formulation alternative de la phase de projection ainsi qu'une nouvelle méthode numérique plus performante baptisée Lagrange-Flux. Les développements de cette méthode ont permis d'obtenir des résultats d'une précision comparable à la méthode de référence. / This works are dedicated to hydrodynamics. For decades, numerous numerical methods has been developed to deal with this type of problems. However, both the evolution and the complexity of computing make us rethink or redesign our numerical solver in order to use efficiently massively parallel computers. Using performance modeling, we perform an analysis of a reference Lagrange-Remap solver in order to deeply understand its behavior on current supercomputer and to optimize its implementation. Thanks to the conclusions of this analysis, we derive a new numerical solver which by design has a better performance. We call it the Lagrange-Flux solver. The accuracy obtained with this solver is similar to the reference one. The derivation of this method also leads to rethink the Remap step.
3

Implementation trade-offs for FGPA accelerators / Compromis pour l'implémentation d'accélérateurs sur FPGA

Deest, Gaël 14 December 2017 (has links)
L'accélération matérielle désigne l'utilisation d'architectures spécialisées pour effectuer certaines tâches plus vite ou plus efficacement que sur du matériel générique. Les accélérateurs ont traditionnellement été utilisés dans des environnements contraints en ressources, comme les systèmes embarqués. Cependant, avec la fin des règles empiriques ayant régi la conception de matériel pendant des décennies, ces quinze dernières années ont vu leur apparition dans les centres de calcul et des environnements de calcul haute performance. Les FPGAs constituent une plateforme d'implémentation commode pour de tels accélérateurs, autorisant des compromis subtils entre débit/latence, surface, énergie, précision, etc. Cependant, identifier de bons compromis représente un défi, dans la mesure où l'espace de recherche est généralement très large. Cette thèse propose des techniques de conception pour résoudre ce problème. Premièrement, nous nous intéressons aux compromis entre performance et précision pour la conversion flottant vers fixe. L'utilisation de l'arithmétique en virgule fixe au lieu de l'arithmétique flottante est un moyen efficace de réduire l'utilisation de ressources matérielles, mais affecte la précision des résultats. La validité d'une implémentation en virgule fixe peut être évaluée avec des simulations, ou en dérivant des modèles de précision analytiques de l'algorithme traité. Comparées aux approches simulatoires, les méthodes analytiques permettent une exploration plus exhaustive de l'espace de recherche, autorisant ainsi l'identification de solutions potentiellement meilleures. Malheureusement, elles ne sont applicables qu'à un jeu limité d'algorithmes. Dans la première moitié de cette thèse, nous étendons ces techniques à des filtres linéaires multi-dimensionnels, comme des algorithmes de traitement d'image. Notre méthode est implémentée comme une analyse statique basée sur des techniques de compilation polyédrique. Elle est validée en la comparant à des simulations sur des données réelles. Dans la seconde partie de cette thèse, on se concentre sur les stencils itératifs. Les stencils forment un motif de calcul émergeant naturellement dans de nombreux algorithmes utilisés en calcul scientifique ou dans l'embarqué. À cause de cette diversité, il n'existe pas de meilleure architecture pour les stencils de façon générale : chaque algorithme possède des caractéristiques uniques (intensité des calculs, nombre de dépendances) et chaque application possède des contraintes de performance spécifiques. Pour surmonter ces difficultés, nous proposons une famille d'architectures pour stencils. Nous offrons des paramètres de conception soigneusement choisis ainsi que des modèles analytiques simples pour guider l'exploration. Notre architecture est implémentée sous la forme d'un flot de génération de code HLS, et ses performances sont mesurées sur la carte. Comme les résultats le démontrent, nos modèles permettent d'identifier les solutions les plus intéressantes pour chaque cas d'utilisation. / Hardware acceleration is the use of custom hardware architectures to perform some computations faster or more efficiently than on general-purpose hardware. Accelerators have traditionally been used mostly in resource-constrained environments, such as embedded systems, where resource-efficiency was paramount. Over the last fifteen years, with the end of empirical scaling laws, they also made their way to datacenters and High-Performance Computing environments. FPGAs constitute a convenient implementation platform for such accelerators, allowing subtle, application-specific trade-offs between all performance metrics (throughput/latency, area, energy, accuracy, etc.) However, identifying good trade-offs is a challenging task, as the design space is usually extremely large. This thesis proposes design methodologies to address this problem. First, we focus on performance-accuracy trade-offs in the context of floating-point to fixed-point conversion. Usage of fixed-point arithmetic instead of floating-point is an affective way to reduce hardware resource usage, but comes at a price in numerical accuracy. The validity of a fixed-point implementation can be assessed using either numerical simulations, or with analytical models derived from the algorithm. Compared to simulation-based methods, analytical approaches enable more exhaustive design space exploration and can thus increase the quality of the final architecture. However, their are currently only applicable to limited sets of algorithms. In the first part of this thesis, we extend such techniques to multi-dimensional linear filters, such as image processing kernels. Our technique is implemented as a source-level analysis using techniques from the polyhedral compilation toolset, and validated against simulations with real-world input. In the second part of this thesis, we focus on iterative stencil computations, a naturally-arising pattern found in many scientific and embedded applications. Because of this diversity, there is no single best architecture for stencils: each algorithm has unique computational features (update formula, dependences) and each application has different performance constraints/requirements. To address this problem, we propose a family of hardware accelerators for stencils, featuring carefully-chosen design knobs, along with simple performance models to drive the exploration. Our architecture is implemented as an HLS-optimized code generation flow, and performance is measured with actual execution on the board. We show that these models can be used to identify the most interesting design points for each use case.
4

Dense matrix computations : communication cost and numerical stability.

Khabou, Amal 11 February 2013 (has links) (PDF)
Cette thèse traite d'une routine d'algèbre linéaire largement utilisée pour la résolution des systèmes li- néaires, il s'agit de la factorisation LU. Habituellement, pour calculer une telle décomposition, on utilise l'élimination de Gauss avec pivotage partiel (GEPP). La stabilité numérique de l'élimination de Gauss avec pivotage partiel est caractérisée par un facteur de croissance qui est reste assez petit en pratique. Toutefois, la version parallèle de cet algorithme ne permet pas d'atteindre les bornes inférieures qui ca- ractérisent le coût de communication pour un algorithme donné. En effet, la factorisation d'un bloc de colonnes constitue un goulot d'étranglement en termes de communication. Pour remédier à ce problème, Grigori et al [60] ont développé une factorisation LU qui minimise la communication(CALU) au prix de quelques calculs redondants. En théorie la borne supérieure du facteur de croissance de CALU est plus grande que celle de l'élimination de Gauss avec pivotage partiel, cependant CALU est stable en pratique. Pour améliorer la borne supérieure du facteur de croissance, nous étudions une nouvelle stra- tégie de pivotage utilisant la factorisation QR avec forte révélation de rang. Ainsi nous développons un nouvel algorithme pour la factorisation LU par blocs. La borne supérieure du facteur de croissance de cet algorithme est plus petite que celle de l'élimination de Gauss avec pivotage partiel. Cette stratégie de pivotage est ensuite combinée avec le pivotage basé sur un tournoi pour produire une factorisation LU qui minimise la communication et qui est plus stable que CALU. Pour les systèmes hiérarchiques, plusieurs niveaux de parallélisme sont disponibles. Cependant, aucune des méthodes précédemment ci- tées n'exploite pleinement ces ressources. Nous proposons et étudions alors deux algorithmes récursifs qui utilisent les mêmes principes que CALU mais qui sont plus appropriés pour des architectures à plu- sieurs niveaux de parallélisme. Pour analyser d'une façon précise et réaliste
5

Dense matrix computations : communication cost and numerical stability / Calculs pour les matrices denses : coût de communication et stabilité numérique

Khabou, Amal 11 February 2013 (has links)
Cette thèse traite d’une routine d’algèbre linéaire largement utilisée pour la résolution des systèmes li- néaires, il s’agit de la factorisation LU. Habituellement, pour calculer une telle décomposition, on utilise l’élimination de Gauss avec pivotage partiel (GEPP). La stabilité numérique de l’élimination de Gauss avec pivotage partiel est caractérisée par un facteur de croissance qui est reste assez petit en pratique. Toutefois, la version parallèle de cet algorithme ne permet pas d’atteindre les bornes inférieures qui ca- ractérisent le coût de communication pour un algorithme donné. En effet, la factorisation d’un bloc de colonnes constitue un goulot d’étranglement en termes de communication. Pour remédier à ce problème, Grigori et al [60] ont développé une factorisation LU qui minimise la communication(CALU) au prix de quelques calculs redondants. En théorie la borne supérieure du facteur de croissance de CALU est plus grande que celle de l’élimination de Gauss avec pivotage partiel, cependant CALU est stable en pratique. Pour améliorer la borne supérieure du facteur de croissance, nous étudions une nouvelle stra- tégie de pivotage utilisant la factorisation QR avec forte révélation de rang. Ainsi nous développons un nouvel algorithme pour la factorisation LU par blocs. La borne supérieure du facteur de croissance de cet algorithme est plus petite que celle de l’élimination de Gauss avec pivotage partiel. Cette stratégie de pivotage est ensuite combinée avec le pivotage basé sur un tournoi pour produire une factorisation LU qui minimise la communication et qui est plus stable que CALU. Pour les systèmes hiérarchiques, plusieurs niveaux de parallélisme sont disponibles. Cependant, aucune des méthodes précédemment ci- tées n’exploite pleinement ces ressources. Nous proposons et étudions alors deux algorithmes récursifs qui utilisent les mêmes principes que CALU mais qui sont plus appropriés pour des architectures à plu- sieurs niveaux de parallélisme. Pour analyser d’une façon précise et réaliste / This dissertation focuses on a widely used linear algebra kernel to solve linear systems, that is the LU decomposition. Usually, to perform such a computation one uses the Gaussian elimination with partial pivoting (GEPP). The backward stability of GEPP depends on a quantity which is referred to as the growth factor, it is known that in general GEPP leads to modest element growth in practice. However its parallel version does not attain the communication lower bounds. Indeed the panel factorization rep- resents a bottleneck in terms of communication. To overcome this communication bottleneck, Grigori et al [60] have developed a communication avoiding LU factorization (CALU), which is asymptotically optimal in terms of communication cost at the cost of some redundant computation. In theory, the upper bound of the growth factor is larger than that of Gaussian elimination with partial pivoting, however CALU is stable in practice. To improve the upper bound of the growth factor, we study a new pivoting strategy based on strong rank revealing QR factorization. Thus we develop a new block algorithm for the LU factorization. This algorithm has a smaller growth factor upper bound compared to Gaussian elimination with partial pivoting. The strong rank revealing pivoting is then combined with tournament pivoting strategy to produce a communication avoiding LU factorization that is more stable than CALU. For hierarchical systems, multiple levels of parallelism are available. However, none of the previously cited methods fully exploit these hierarchical systems. We propose and study two recursive algorithms based on the communication avoiding LU algorithm, which are more suitable for architectures with multiple levels of parallelism. For an accurate and realistic cost analysis of these hierarchical algo- rithms, we introduce a hierarchical parallel performance model that takes into account processor and network hierarchies. This analysis enables us to accurately predict the performance of the hierarchical LU factorization on an exascale platform.
6

Contribution à la compréhension de l'impact des facteurs exogènes de risque sur les PME des pays en développement : le cas de la République Dominicaine. / A Contribution to Understanding the Impact of Exogenous Risk Factors on SMEs in Developing Countries : The Case of the Dominican Republic. / Contribución a la comprensión del impacto de los factores de riesgo exógenos sobre las Mipymes de los países en desarrollo : El Caso de la República Dominicana.

Jimenez Romero, Sterling Modesto 24 September 2012 (has links)
La plupart des études en gestion sur la performance des entreprises sont centréessur l'explication de la relation entre les facteurs internes ou des caractéristiquesintrinsèques de l'entreprise (niveau d'endettement, diversification des produits, lastratégie concurrentielle, etc.) et son performance. Cette thèse vise à déterminerquels sont les facteurs de risque exogènes qui ont un impact sur la performance desentreprises en République Dominicaine? Ces facteurs, affectent-ils différemment lesmicro, petites et moyennes entreprises en fonction de leur secteur d'activité. Quelest le risque pour chacun des plus représentatifs sous-secteurs des entreprisesDominicaines? Nous avons constaté que les facteurs de risque les plusstatistiquement significatifs sont les dépenses de consommation des ménages, letaux d'intérêt des banques commerciales, l'investissement total, le taux de changede DOP à USD et le déficit de la balance commerciale. La composition etl'importance des facteurs varient considérablement en fonction de la taille desentreprises et le sous-secteur auquel ils appartiennent. Les grandes entreprises sonten moyenne moins risqué que des moyennes, petites et micro entreprises, n’importequel que soit le sous-secteur auquel ils appartiennent. / Many of the management studies on the performance of the company are focusedon explaining the relationship between the internal factors or intrinsic characteristicsof the firm (debt level, diversification of products, competitive strategy, etc.) and itsperformance. This thesis seeks to determine, what are the exogenous risk factorsthat impact the performance of all companies in the Dominican Republic? Thesefactors differentially affect the micro, small and medium enterprises according to theirbusiness sector. What is the risk on each of the most representative sub-sectors ofthe Dominican companies? We found that the most statistically significant riskfactors are the household consumption expenditure, the interest rate of commercialbanks, the total investment, the DOP to USD exchange rate and the deficit on thetrade balance. The composition and importance of the factors significantly variesdepending on the size of the company and the sub-sector to which it belongs. Also,large firms are on average less risky than medium, small and micro regardless of thesub-sector they belong. / Muchos de los estudios de gestión sobre el performance de la empresa se enfocanen explicar la relación que existe entre los factores o características intrínsecas de laempresa (nivel de endeudamiento, diversificación de productos, estrategiacompetitiva, etc.) y el performance de la misma. Esta tesis busca determinar¿cuáles son los factores exógenos de riesgo que impactan el performance de lasempresas de la República Dominicana? Si estos factores afectan de forma diferentea la micro, pequeña y mediana empresa según su actividad empresarial. ¿Cuál es elriesgo que tiene cada uno de los sub-sectores más representativos de las empresasdominicanas? Encontramos que los factores de riesgo estadísticamente mássignificativos son el consumo de los hogares, la tasa de interés de los bancoscomerciales, la inversión total, la tasa de cambio de DOP a USD y el déficit en labalanza comercial. La importancia y composición de los factores varíasignificativamente según el tamaño de la empresa y el sub-sector al que pertenece.También, en promedio, las empresas grandes tienen menos riesgos que lasmedianas, pequeñas y micro sin importar al sub-sector que pertenezcan.

Page generated in 0.0913 seconds