• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2920
  • 689
  • 348
  • 55
  • 50
  • 49
  • 10
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 4418
  • 1911
  • 982
  • 646
  • 483
  • 398
  • 372
  • 363
  • 355
  • 354
  • 307
  • 306
  • 295
  • 292
  • 276
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Méthodologie structurée de développement informatique pour gestionnaire de PME

Abel, Jean-Paul January 1985 (has links) (PDF)
No description available.
252

La stratégie de la qualité et la gestion du rendement

Marcoux, Alexandre January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
253

Processus décisionnel d'acquisition de robot et de C.A.O./F.A.O.

Gagnon, Danielle January 1992 (has links) (PDF)
Le sujet de cette recherche-action est la décision financière d'acquisition d'un robot industriel ou d'un C.A.O./F.A.O. (conception assistée par ordinateur / fabrication assistée par ordinateur). L'objectif est de développer un outil financier (processus décisionnel) supportant la prise de décision de l'entrepreneur qui veut s'automatiser dans le cadre d'une PME. La méthodologie employée pour atteindre cet objectif est exploratoire. En combinant la théorie financière et la théorie de la robotique, nous avons établi un modèle décisionnel enrichissant une publication de Gérald Fleisher et vérifié auprès d'entreprises du Québec qui se sont récemment automatisées. La quête de données et l'analyse des résultats nous ont permis de préciser le processus d'évaluation de l'acquisition. Cette recherche a dégagé un processus général d'acquisition qui incorpore le domaine technique du bien à acquérir au processus managérial du gestionnaire.
254

Bonnes pratiques en ingénierie de données en radio-oncologie

Couture, Gabriel 22 December 2022 (has links)
Les travaux présentés dans ce mémoire visent à identifier et appliquer de bonnes pratiques quant à la gestion de données en santé, et plus précisément en radio-oncologie. Ce domaine comporte de nombreux défis en lien avec les données dont l'augmentation rapide du volume, de la variété et de la complexité des données. C'est pourquoi les développements en lien avec la gestion de données en santé doivent s'appuyer sur de bonnes pratiques d'ingénierie de données. Trois projets distincts en lien avec les données ont été abordés dans le cadre de ce mémoire. Le premier concerne l'automatisation de la collecte de données en radio-oncologie. Un pipeline a été développé afin d'obtenir quotidiennement les indices dosimétriques des traitements de curiethérapie de prostate faits dans la journée. Ces indices sont ensuite stockés dans une base de données dédiée à la recherche sur le cancer de la prostate. Ces indices peuvent être obtenus par deux algorithmes de calcul de DVH. Une comparaison a été faîte avec un jeu de données de 20 cas de curiethérapie HDR de prostate. Celle-ci a permis d'identifier des différences entre chacun des algorithmes. Le deuxième projet montre comment il est possible de concevoir des jeux de données massifs réutilisables dédiés aux analyses radiomiques. Des flots de travail permettant de conserver des données coûteuses générées dans le cadre d'analyses radiomiques ont été conceptualisés et implémentés. Ces flots, inspirés des principes FAIR, permettent d'assurer une meilleure traçabilité et de tendre vers des jeux de données réutilisables. Un flot qui permet à un spécialiste (ex. radio-oncologue) de tracer des segmentations a été implémenté et testé avec des logiciels libres, notamment le serveur DICOM Orthanc et 3D Slicer. Le dernier projet démontre l'apport de l'ingénierie de données en médecine personnalisée. Plus précisément, l'estimation des risques de cancer du sein pour des participantes à une étude d'envergure ont été obtenus par l'entremise de processus automatisés. Dans le cadre d'une étude sur le cancer du sein impliquant près de 2000 participantes, deux pipelines ont été développés. Le premier permet d'obtenir le risque de cancer du sein individuel des participantes en fonction de différents facteurs (habitudes de vie, historique familiale, marqueurs génétiques). Le deuxième pipeline génère des lettres personnalisées destinées aux participantes ainsi qu'à leur médecin traitant. Ces projets démontrent la pertinence de bonnes pratiques quant à la gestion de données en santé. L'ingénierie de données présentée dans ce mémoire aura permis d'automatiser plusieurs opérations en lien avec les données en plus de concevoir des jeux de données réutilisables. Cette bonne gestion de données pave la voie vers de nouvelles pratiques et rend les activités scientifiques en santé plus efficaces. / This work aims to identify and apply good practices in the management of health data, and more specifically in radiation oncology. This field has many data-related challenges including the rapidly increasing volume, variety and complexity of data. This is why developments related to health data management must be based on good data engineering practices. Three distinct data-related projects have been addressed in this thesis. The first concerns the automation of data collection in radiation oncology. A pipeline has been developed to obtain daily dosimetric indices of prostate brachytherapy treatments performed during the day. These indices are then stored in a database dedicated to prostate cancer research. These indices can be obtained by two DVH calculation algorithms. A comparison was made with a dataset of 20 HDR prostate brachytherapy cases. This made it possible to identify the differences of each of the algorithms. The second project shows how it is possible to design massive reusable datasets dedicated to radiomics analyses. Workflows to retain expensive data generated in radiomics analyzes have been conceptualized and implemented. These workflows, inspired by the FAIR principles, ensure better traceability and tend towards reusable data sets. A workflow that allows a specialist (e.g. radio-oncologist) to draw segmentations has been implemented and tested with free software, in particular with the DICOM server Orthanc and 3D Slicer. The last project demonstrates the contribution of data engineering in personalized medicine. Specifically, the breast cancer risk assessment of a large group of participants were obtained through automated processes. As part of a breast cancer study involving nearly 2000 participants, two data pipelines were developed. The first provides participants' individual breast cancer risk assessment based on various factors (lifestyles, family history, genetic markers). The second pipeline generates personalized newsletters for participants and their treating physician. These projects demonstrate the relevance of good practices in health data management. The data engineering presented in this thesis will have made it possible to automate several data related operations in addition to designing reusable data sets. This good data management paves the way for new practices and makes health science activities more efficient.
255

Optimizing the management of multireservoir systems under climate variability and change

Espanmanesh, Vahid 26 April 2024 (has links)
Les problèmes d'allocation des ressources en eau deviennent de plus en plus complexes, car les approvisionnements en eau peinent à suivre la demande croissante en eau, alimentée par la croissance de la population et l'augmentation des normes de vie. L'incertitude hydroclimatique aggrave le problème, en particulier dans les régions déjà caractérisées par la variabilité climatique, c'est-à-dire les fluctuations pluriannuelles de la température et des précipitations, et/ou sensibles au changement climatique. La détermination de politiques d'allocation efficaces et socialement acceptables est au cœur de la gestion intégrée des ressources en eau. Lorsqu'un système de ressources en eau comprend plusieurs réservoirs, les politiques de libération efficaces n'allouent pas seulement l'eau dans l'espace (entre les utilisateurs d'eau), mais aussi dans le temps (en conservant ou non l'eau en réserve). D'importants efforts de recherche ont été consacrés à l'amélioration de l'efficacité opérationnelle des systèmes multiréservoirs grâce, par exemple, à l'intégration d'informations hydroclimatiques pertinentes dans les modèles d'exploitation des réservoirs. Cette analyse est particulièrement pertinente dans les régions où les signaux climatiques de basse fréquence, tels que les variations pluriannuelles de la température et des précipitations, influencent les régimes hydrologiques des rivières. Dans ces régions, les séries temporelles de débits des rivières montrent des patterns qui correspondent à ces régimes hydrologiques. Le fait de ne pas capturer correctement ce comportement de type régime conduit à des politiques d'exploitation sous-optimales, en particulier dans les systèmes caractérisés par une grande capacité de stockage. Cette recherche aborde cette question en développant et en évaluant la valeur de politiques de libération adaptées au climat pour les systèmes multiréservoirs dans les régions sensibles au climat. Pour ce faire, nous combinons une technique d'optimisation à grande échelle (Programmation Dynamique Stochastique dual- SDDP) avec un Modèle de Markov Caché. La variante proposée, intitulée SDDP-HMM, capture la persistance à long terme qui caractérise le régime des écoulements dans les régions exposées à la variabilité climatique, et fournit donc des politiques d'exploitation des réservoirs adaptées à différents états climatiques (par exemple, sec, normal ou humide). Pour évaluer les avantages associés aux politiques de libération dérivées du climat, l'extension proposée est testée et comparée aux formulations traditionnelles en utilisant le bassin du fleuve Sénégal (SRB) comme exemple. Le régime hydrologique du SRB présente des périodes sèches, normales et humides sur plusieurs années. De plus, le bassin connaît des développements hydrauliques et agricoles rapides qui devraient se poursuivre dans les décennies à venir. Les résultats montrent que les politiques adaptées au climat sont particulièrement pertinentes pendant les extrêmes hydrologiques, indiquant que les politiques dérivées de SDDP-HMM offrent une meilleure protection contre des conditions hydrologiques défavorables. S'appuyant sur les enseignements tirés de la première activité, la recherche s'est ensuite tournée vers l'identification d'un ensemble de politiques adaptées pour faire face à la fois à la variabilité climatique et au changement climatique. L'objectif ici est d'investiguer si les politiques adaptées au climat sont susceptibles de rester pertinentes ou non en cas de changement climatique. Pour ce faire, un nouveau cadre de modélisation basé sur un grand ensemble de projections hydrologiques est proposé. Encore une fois, en utilisant le bassin du fleuve Sénégal comme étude de cas, une analyse comparative des politiques de libération pour différentes altérations possibles du régime des écoulements révèle que les avantages associés aux politiques adaptées au climat sont modérés en cas d'altérations les plus extrêmes, tandis qu'ils restent significatifs en cas d'altérations plus modérées. / Water resources allocation problems are increasingly challenging as water supplies can barely keep up with exploding water demands fuelled by population growth and rising living standards. Hydroclimatic uncertainty exacerbates the problem, especially in regions already characterized by climate variability, i.e. multiyear fluctuations in temperature and precipitation, and/or sensitive to climate change. Determining efficient and socially-acceptable allocation policies is at the heart of integrated water resources management (IWRM). When a water resources system includes multiple reservoirs, efficient release policies not only allocate water in space (between water users) but also in time (by keeping or not the water in storage). Significant research efforts have been devoted to improving the operational effectiveness of multireservoir systems through, for example, the incorporation of relevant hydroclimatic information into reservoir operation models. This effort is particularly relevant in regions characterized by low-frequency climate signals, where time series of river discharges exhibit regime-like behavior. Failure to properly capture such regime-like behavior yields suboptimal operating policies, especially in systems characterized by large storage capacity. This research addresses this issue by developing and then assessing the value of climate-tailored release policies for multireservoir systems in climate sensitive regions. To achieve this, we combine a large-scale optimization technique (Stochastic Dual Dynamic Programming - SDDP) with a Hidden Markov Model. The proposed variant, entitled SDDP-HMM, captures the long-term persistence that characterizes the flow regime in those regions exposed to climate variability, and therefore provides reservoir operating policies tailored to different climate states (e.g. dry, normal, or wet). To assess the gains associated with climate-derived release policies, the proposed extension is tested and compared to traditional formulations using the Senegal River Basin (SRB) in West Africa as an example. The SRB's flow regime features multiyear dry, normal, and wet periods. Furthermore, the basin is undergoing rapid hydropower and agricultural developments expected to continue in the coming decades. The results demonstrate that climate-tailored policies are particularly relevant during hydrological extremes, indicating that the SDDP-HMM-derived policies better hedge against adverse hydrologic conditions. Building upon the insights gained from the first activity, the research then shifted to the identification of a portfolio of adapted policies to cope with both climate variability and climate change. The objective here is the investigate whether climate-tailored policies are likely to remain relevant or not under climate change. To achieve this, a new modeling framework organized relying on a large ensemble of hydrologic projections is proposed. Again, using the Senegal River basin as a case study, a comparative analysis of the release policies for different possible alterations of the flow regime reveal that the gains associated with climate-tailored policies are moderate under the most extreme alterations, while they remain meaningful under more moderate alterations.
256

Généralisations du problème d'ordonnancement de projet à ressources limitées

Kadri, Roubila Lilia 24 April 2018 (has links)
Un problème d'ordonnancement de projet à ressources limitées (POPRL) consiste en l'ordonnancement d'un ensemble de tâches, nécessitant un ou plusieurs types de ressources, renouvelables ou non renouvelables, en quantités limitées. La résolution d'un POPRL a pour but la détermination des dates d'exécution des tâches en tenant compte des contraintes de préséance et de disponibilité des ressources et ayant comme objectif la minimisation de la durée totale du projet. Le POPRL est un problème d'optimisation combinatoire de complexité NP-dur (Blazewicz et al. 1983). Une revue de littérature du (POPRL) est présentée au chapitre 2. Plus de 125 articles scientifiques sont analysés. Les contributions relatives à ce problème portent sur les méthodes exactes de résolution, la détermination de bornes inférieures sur la durée du projet et les méthodes heuristiques (approchées) de résolution. L'aspect pratique de ce problème dans des contextes industriels divers a conduit à de nombreuses généralisations du problème classique. On constate que malgré les efforts déployés pour définir des POPRL plus généraux, les contraintes de transfert des ressources continuent à être ignorées, nous constatons aussi que l'optimisation du problème en considérant les coûts a été très peu traitée dans la littérature. Ce qui forcent les gestionnaires dans la plus part des cas à se baser uniquement sur leur expérience pour réaliser ou ajuster manuellement les ordonnancements produits par des heuristiques conçues pour résoudre des versions simplifiées du problème. Cette thèse tente de combler partiellement ces lacunes. Le chapitre 3 traite le problème d'ordonnancement de projet à ressources limitées POPRLTT avec des temps de transfert des ressources. Un temps de transfert est le temps nécessaire pour transférer une ressource du lieu d'execution d'une activité vers un autre. Ainsi, le temps de transfert d'une ressource dépend des lieux des activités à exécuter, ainsi que des caractéristiques des ressources à transférer. L'objectif dans un POPRLTT est la détermination des dates d'exécution des tâches en tenant compte des contraintes de préséance et de disponibilité des ressources et les temps de transfert des ressources. L'objectif est de minimiser la durée totale du projet. Nous proposons un nouvel algorithme génétique basé sur un opérateur de croisement de deux positions. L'étude expérimentale menée sur un grand nombre de problèmes test prouve que l'algorithme proposé est meilleur que les deux méthodes déjà existantes dans la littérature. Une généralisation du problème d'ordonnancement de projet à ressources limitées et des temps de transfert des ressources au contexte multi mode (POPRL=PMETT) est présentée au chapitre 4. Dans ce problème, nous supposons que la préemption est non autorisée, et les ressources utilisées sont renouvelables et non renouvelables, chaque activité a plusieurs modes d'exécution, et les relations de préséance sont de type dit début-fin sans décalage. L'objectif est de choisir un temps de début (ou de fin) et un mode d'exécution pour chaque tâche du projet, pour que la durée du projet soit minimisée tout en respectant les contraintes de préséance, de disponibilité de ressources et les temps de transfert. Au meilleur de notre connaissance, cette version du problème n'a jamais été abordée auparavant. Nous proposons une formulation mathématique de ce problème, ensuite nous présentons un algorithme génétique, que nous avons conçu pour résoudre les instances de grandes tailles. Pour tester les méthodes proposées nous développons des nouveaux ensembles de problèmes-tests pour le POPRL=PMETT, qui pourront être utilisés dans l'avenir pour mener des recherches dans ce domaine. Dans le chapitre 5, nous définissons une nouvelle généralisation du problème d'ordonnancement de projet à ressources limitées en considérant l'objectif de minimiser le coût total d'exécution du projet. Celui-ci est composé de deux éléments principaux: le coût direct des ressources à utiliser et les frais généraux qui ne dépendent pas de la quantité de ressources allouées, mais qui sont proportionnels à la durée du projet. Ce problème, que nous appelons Problème général d'allocation et de nivellement des ressources d'un projet (PGANRP) est très commun en pratique, mais très peu de recherche est consacrée à ce problème. Dans un PGANRP, nous devons simultanément déterminer les quantités des ressources à allouer au projet au cours de son exécution et réduire la variabilité de l'utilisation des ressources au minimum tout en essayant de terminer le projet à une date de fin acceptable. Les quantités des ressources à allouer au projet devraient permettre l'accomplissement du projet à cette date et devient une limite sur la disponibilité de ces ressources durant toute l'exécution du projet. Nous proposons, une formulation mathématique du problème et deux approches de recherche dans le voisinage pour les instances de grandes tailles. / The resource-constrained project scheduling problem (RCPSP) consists of scheduling a set of activities or tasks using one or more resource types available in limited quantity. In the standard version of this problem, pre-emption is not allowed, precedence relations are of the no-lag, finish-to-start type, and the used resources are renewable meaning that the same resources quantity are available each time period. Solving this NP-hard optimization problem requires the determination of tasks execution date such that the project duration is minimized without using more than the available resource quantities. In the first chapter of this thesis, the research problem and research objectives are presented while chapter 2 reviews the literature and contributions to the RCPSP and some of its extended versions. More than 125 published papers are reviewed. These contributions are divided into 4 groups of contributions. Those proposing optimal solution methods, those developing lower bounds on the project duration, those proposing heuristic and approximate solution methods, and those extending the standard version of the problem in order to make it closer to the real-life problem. This literature review revealed that very few contributions explicitly take into consideration the time required to transfer resources between execution sites of the project. Only three such contributions are published and none of these three publication deal with the case where tasks have more than one execution mode. This review also revealed that the large majority of the published research deals with the problem where the objective is to minimize the duration of the project. However, in almost all real-life situations, the objective is to minimise the total cost of the project. That is why this thesis is dedicated to solve these neglected extensions of the RCPSP. Chapter 3 deals with the resource-constrained project scheduling problem with transfer times (RCPSPTT). Thus the goal in this case is to determine execution dates that allows for resources to be transferred between execution sites while respecting the precedence relations between these tasks as well as resources availability. A new genetic algorithm (GA) is developed to solve the RCPSPTT. This algorithm uses a new and efficient crossover operator. The chapter also study the performance of the proposed genetic algorithm and shows that it produces better results than the two previously published solution heuristics. It is to notice that the proposed GA considers renewable resource types and assume that tasks have only one execution mode. Chapter 4 deals with the multi-mode resource-constrained project scheduling problem with transfer times (MRCPSPTT). Thus, it extends the problem studied in the previous chapter to the multi-mode case under the assumptions of no pre-emption while using renewable and non-renewable resources. This problem has never been the subject of any published research before. An integer linear mathematical formulation of the problem is given as well as new genetic algorithm is developed to solve it. An extensive empirical analysis is then presented and shows that the proposed GA is able to produce the optimal solution for 529 test instances with 10, 20 and 30 activities. Chapter 5 introduces the generalized resource allocation and leveling problem (GRALP). This problem can be stated as follows. Given a set of project tasks to execute, their possible execution modes and precedence relations, an upper bound on the amount of resources that can be made available to the project, a project due date, the cost of resource utilization and the overhead cost; determine the execution date and mode for each task and the amount of resources to allocate to the project. The objective is to minimize the total project execution cost while respecting precedence constraints, project due date and not using more than the amount of resources that we decided to allocate to the project. Again we notice that this problem has never been the subject of any published research work. Chapter 5 presents an integer linear formulation of the problem, a neighborhood search solution heuristic, a genetic algorithm to solve it and an empirical experiment to evaluate the proposed heuristics showing the superiority of the proposed GA. Finally, the conclusions of the thesis and some propositions for future research are given.
257

Algorithmes de vérification et de filtrage pour la contrainte Cumulative et ses variantes

Ouellet, Yanick 22 March 2024 (has links)
Thèse ou mémoire avec insertion d'articles / Les problèmes d'ordonnancement, où il faut planifier des tâches sur une ligne du temps en respectant différentes contraintes, sont présents dans une grande variété d'industries. Cela va de la conception d'horaire pour un hôpital jusqu'à la planification de la production en usine. Malheureusement, la plupart de ces problèmes sont NP-difficiles. La programmation par contraintes s'est montrée très efficace pour résoudre ces problèmes. Dans cette thèse, nous présenterons des algorithmes de vérification et de filtrage pour trois contraintes d'ordonnancement. La première, la contrainte $\textup{Cumulative}$ limite l'utilisation d'une ressource à une capacité maximale. Pour cette contrainte, nous améliorons la complexité d'algorithmes de vérification et de filtrage existants. La deuxième contrainte, la $\textup{SoftCumulative}$, est une variation de la $\textup{Cumulative}$ où il est possible de dépasser la capacité maximale, moyennant une pénalité. La troisième, la contrainte $\textup{MinCumulative}$, force une utilisation minimale, plutôt que maximale, de la ressource. Pour ces deux dernières contraintes, nous introduisons de nouveaux algorithmes qui sont inspirés par les algorithmes classiques de la contrainte $\textup{Cumulative}$. / Scheduling problems occur in various industries. Examples of these problems include, among others, nurse rostering, production planning in a factory, and airline crew scheduling. In such problems, one needs to schedule tasks on a time line while satisfying several constraints. Unfortunately, most of these problems are NP-Hard. Constraint programming has been shown to be an effective technique to solve NP-hard scheduling problems. In this thesis, we introduce checker and filtering algorithms for three scheduling constraints. $\textup{The Cumulative}$ constraint limits the resource consumption to a maximal capacity. For that constraint, we present faster checker and filtering algorithms. $\textup{The SoftCumulative}$ constraint is a variant of the $\textup{Cumulative}$ where it is possible to exceed the capacity, but doing so incurs a penalty. The $\textup{MinCumulative}$ constraint enforces a minimum resource usage, rather than limiting it. For those two constraints, we introduce new filtering algorithms that are inspired by classical algorithms for the $\textup{Cumulative} constraint.
258

La fonction contrôle de gestion. Contribution à l'analyse de la place des services fonctionnels dans l'organisation

Lambert, Caroline 24 March 2005 (has links) (PDF)
L'objectif de cette thèse est de comprendre la place et le rôle de la fonction contrôle de gestion au sein de l'organisation. Un cadre d'analyse de la fonction contrôle de gestion est proposé. La revue de littérature, complétée par une étude exploratoire, conduit à appréhender la fonction contrôle de gestion comme un service fonctionnel et comme le résultat de l'activité individuelle des contrôleurs de gestion. La rationalité dominante, la centralité de la fonction (autorité et client) et l'activité des contrôleurs de gestion (tâches, relations et images) permettent de révéler les rôles de la fonction contrôle de gestion. Une typologie est ensuite réalisée à partir de douze études de cas. Quatre idéaux-types sont mis en évidence : la fonction contrôle de gestion partenaire, discrète, garde-fou et omnipotente. Les facteurs de contingence et des cas de changement de la fonction sont étudiés. Cette thèse montre que la fonction contrôle de gestion peut remplir des rôles divers : aide à la décision locale, surveillance discrète, centralisation du pouvoir, légitimation interne et externe des décisions et formation des managers.
259

Étude préalable pour une gestion intégrée des ressources du bassin versant du lac Tonga au nord-est algérien

Raachi, Mohamed Lamine January 2007 (has links) (PDF)
La gestion des ressources en zones protégées et en particulier les zones humides d'importance internationale « zone Ramsar », s'oriente de plus en plus vers une gestion intégrée et globale par bassin versant. Par contre, en Algérie, l'application de ce processus quoi qu'il soit débattu depuis plus d'une décennie, progresse timidement, et l'emphase est toujours mise sur la gestion sectorielle. L'état de dégradation et la menace qui pèse sur le site Ramsar du lac Tonga sont un exemple concret de l'échec de cette gestion. Nous émettons l'hypothèse qu'une telle approche est inefficace et que dans ces conditions, le classement du lac en site Ramsar et son inclusion dans une aire doublement protégée sont tout à fait inutiles. L'approche écosystémique de gestion, déjà largement appliquée et qui fait ses preuves au niveau des zones Ramsar euro-méditerranéennes, est le modèle que nous proposons pour sauver la situation et définir les enjeux majeurs et prioritaires sur le bassin versant. Elle fait également mention des orientations pour l'adoption et la mise en place d'un organisme capable de coordonner les actions d'un schéma d'aménagement et de gestion intégrée du bassin versant du lac Tonga qui tiendrait compte du caractère protégé du territoire et en même temps des impératifs du développement socio-économique de la population riveraine du lac, dans une perspective de développement durable. Cette étude pionnière dans son genre au niveau de la région pourrait être un précurseur pour favoriser la réflexion sur l'adoption d'une démarche intégrée de gestion de la ressource en eau, qui pour une première étape pourrait être effectuée à titre pilote au niveau du bassin versant du Tonga, car l'adoption définitive d'une telle démarche dans le contexte de l'Algérie génère beaucoup d'hésitation, ce qui constitue la principale contrainte quant à sa mise en oeuvre. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Gestion intégrée par bassin versant, Approche écosystémique, Ressource en eau, Zone humide, Atterrissement, Enjeux.
260

La fuite de connaissance comme un risque associé aux alliances et aux collaborations pour les jeunes firmes de biotechnologie

Guedda, Chiraz January 2008 (has links) (PDF)
Les études sur les alliances et sur les entreprises en réseaux font ressortir, d'une part les avantages ultimes qui se rattachent en l'accès aux compétences complémentaires, la capacité de renouveler les ressources et l'innovation continue, et d'autre part les risques que courent les firmes. Dans ce sens, les firmes doivent déterminer les compétences à protéger et celles à partager dans le cadre de la collaboration pour maintenir leur avantage concurrentiel et parfois même leur survie. Le présent travail s'inscrit dans cette perspective et vise à explorer les risques de la collaboration, plus spécifiquement le risque de la fuite de connaissance. Il s'agit alors d'approfondir l'étude sur la conscience des dirigeants quant aux risques de la fuite des connaissances stratégiques et les mesures à prendre pour réduire ces risques. Le choix du secteur de la biotechnologie est guidé par le fait que les firmes de biotechnologie demeurent un bon exemple de celles qui se basent sur des technologies de recherches innovantes et leurs dépenses en R&D sont de plus en plus en hausse. De même, vu les problèmes de financement que rencontrent ces jeunes firmes, ces dernières ne sont pas, toutes et toujours, en mesure de faire des poursuites judiciaires en cas d'appropriation de leurs résultats par les compétiteurs. Pour aboutir à l'objectif de l'étude, la démarche théorique se base sur la présentation de différents concepts pertinents pour l'étude. Les principales théories étudiées sont les alliances, la théorie de ressources et compétences, la théorie de capacités dynamiques, les réseaux organisationnels et l'innovation. Ces différentes théories ont permis de mettre l'accent sur l'importance de la connaissance et les risques que courent les firmes dans le cadre des ententes de coopération. La démarche méthodologique se base sur une étude qualitative de type exploratoire. La méthode de collecte de données, étant les entrevues individuelles semi-dirigées a permis de fournir des résultats pertinents. Ainsi, de l'analyse des résultats, il ressort que la conscience des dirigeants du risque de la fuite de connaissance est influencée par trois principales variables à savoir: la taille de la firme, son expérience et son vécu, et la culture des partenaires. De même, il découle des résultats que l'efficacité de la protection par les brevets est discutable, ainsi que l'apport des organismes d'aide aux firmes de biotechnologie demeure contestable. D'autres mesures de protection et des outils plus stratégiques doivent être pris par les firmes pour réduire le risque de la fuite de connaissance. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Les alliances, Les compétences, Les ressources, La connaissance, Gestion de connaissance, Risque, L'innovation, Entreprises en réseau, Biotechnologie.

Page generated in 0.324 seconds