181 |
Réflexion sur la mise en œuvre du programme de suivis intensifs différenciés (SID) dans la communautéCarignan, Marie-Josée 09 1900 (has links)
Au regard des restrictions à l’incarcération introduites par l’adoption de la Loi sur le système de justice pénale pour les adolescents (LSJPA), au Centre jeunesse de Montréal - Institut universitaire (CJM-IU), s’est amorcée en 2005 la mise sur pied du programme de suivis intensifs différenciés (SID) dans la communauté. Notre stage de maitrise en intervention clinique avait comme objectifs : de participer à la mise en œuvre transversale du programme SID, de contribuer à son intégrité, de supporter les intervenants y étant associés ainsi que de bonifier le processus de référence de ce programme en développant un outil d’évaluation. Suite à cette expérience, il nous semblait nécessaire d’entreprendre une réflexion sur la situation d’implantation du programme SID, plus précisément de faire une évaluation de type formatif et constructif du niveau de concordance entre son modèle théorique et son application au quotidien ainsi que des obstacles rencontrés. Une méthodologie qualitative est apparue appropriée pour produire le matériel. Deux techniques ont été utilisées, l’observation participante sur le terrain et l’analyse du contenu de documents écrits (procès-verbaux rédigés après certains comités). Pour structurer l’ensemble du présent rapport de stage, nous avons retenu le concept de plan d’action d’un programme proposé par Chen, dont les six composantes servent de grille à l’évaluation et aident à avoir une vue globale de son implantation, ainsi que le modèle de changement de programme de la TCU (pour Texas Christian University), qui inclut les principaux stades de changement et les facteurs, aux niveaux individuel, organisationnel et du programme en soi, favorisant ou entravant la mise en œuvre d’innovations avec succès. À la lumière de notre analyse, nous considérons qu’il serait possible de surmonter ce qui gêne l’application du programme SID et qu’il ne serait pas obligatoire de faire des changements majeurs à sa théorie. Nous nous sommes permis de suggérer des ajustements qui pourraient être apportés au processus d’implantation de ce programme. En conclusion, nous estimons que la mise en œuvre du programme SID pourrait être réussie seulement si les conditions propices étaient réunies. Toutefois, selon nous, il y aura toujours certaines contraintes avec lesquelles il faudra composer. / In 2005, in the wake of the adoption of the Youth Criminal Justice Act (YCJA) and its attendant restrictions on incarceration, the Centre jeunesse de Montréal - Institut universitaire (CJM-IU) [Montreal youth centre - University institute] launched a community-oriented intensive differential case management program (IDCMP). The clinical internship reported here had the following objectives: allow participation in the cross-sectional implementation of the program, improve the program’s robustness, support program specialists, and develop an assessment tool that would improve this program’s referral process. The results of this internship indicated the necessity of reviewing the IDCMP’s implementation process, specifically through constructive, pedagogical assessment of the congruence of the plan’s theoretical model and day-to-day application, as well of the obstacles encountered. A qualitative methodology appeared appropriate for these purposes. Two techniques were used: field participant observation, and content analysis of written documents (committee minutes). Chen's Program Action Model and the Texas Christian University (TCU) Program Change Model provided the conceptual framework for the internship report. The former’s six components were the basis for an assessment checklist and oriented the global overview of the implementation of the IDCMP, while the latter provided a model of the main stages of change and the individual, organizational, and program-specific factors that favour or hinder innovation. The results indicate that overcoming obstacles to the application of the IDCMP would not require any significant changes to the program’s underlying theoretical basis. Modifications of the program’s implementation process are presented. In conclusion, we consider that the successful implementation of the IDCMP is dependent on certain conditions, and will always be subject to constraints.
|
182 |
Affine and generalized affine models : Theory and applicationsFeunou Kamkui, Bruno January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
|
183 |
Trois essais en économie des ressources naturellesAtewamba, Calvin 05 1900 (has links)
Cette thèse est composée de trois articles en économie des ressources naturelles non-renouvelables. Nous considérons tour à tour les questions suivantes : le prix in-situ des ressources naturelles non-renouvelables ; le taux d’extraction optimal et le prix des res- sources non-renouvelables et durables.
Dans le premier article, nous estimons le prix in-situ des ressources naturelles non-renouvelables en utilisant les données sur le coût moyen d’extraction pour obtenir une approximation du coût marginal. En utilisant la Méthode des Moments Généralisés, une dynamique du prix de marché derivée des conditions d’optimalité du modèle d’Hotelling est estimée avec des données de panel de 14 ressources naturelles non-renouvelables. Nous trouvons des résultats qui tendent à soutenir le modèle. Premièrement, le modèle d’Hotelling exhibe un bon pouvoir explicatif du prix de marché observé. Deuxièmement, bien que le prix estimé présente un changement structurel dans le temps, ceci semble n’avoir aucun impact significatif sur le pouvoir explicatif du modèle. Troisièmement, on ne peut pas rejeter l’hypothèse que le coût marginal d’extraction puisse être approximé par les données sur le coût moyen. Quatrièmement, le prix in-situ estimé en prenant en compte les changements structurels décroît ou exhibe une forme en U inversé dans le temps et semble être corrélé positivement avec le prix de marché. Cinquièmement, pour neuf des quatorze ressources, la différence entre le prix in-situ estimé avec changements structurels et celui estimé en négligeant les changements structurels est un processus de moyenne nulle.
Dans le deuxième article, nous testons l’existence d’un équilibre dans lequel le taux d’extraction optimal des ressources non-renouvelables est linéaire par rapport au stock de ressource en terre. Tout d’abord, nous considérons un modèle d’Hotelling avec une fonction de demande variant dans le temps caractérisée par une élasticité prix constante et une fonction de coût d’extraction variant dans le temps caractérisée par des élasticités constantes par rapport au taux d’extraction et au stock de ressource. Ensuite, nous mon- trons qu’il existe un équilibre dans lequel le taux d’extraction optimal est proportionnel au stock de ressource si et seulement si le taux d’actualisation et les paramètres des fonctions de demande et de coût d’extraction satisfont une relation bien précise. Enfin, nous utilisons les données de panel de quatorze ressources non-renouvelables pour vérifier empiriquement cette relation. Dans le cas où les paramètres du modèle sont supposés invariants dans le temps, nous trouvons qu’on ne peut rejeter la relation que pour six des quatorze ressources. Cependant, ce résultat change lorsque nous prenons en compte le changement structurel dans le temps des prix des ressources. En fait, dans ce cas nous trouvons que la relation est rejetée pour toutes les quatorze ressources.
Dans le troisième article, nous étudions l’évolution du prix d’une ressource naturelle non-renouvelable dans le cas où cette ressource est durable, c’est-à-dire qu’une fois extraite elle devient un actif productif détenu hors terre. On emprunte à la théorie de la détermination du prix des actifs pour ce faire. Le choix de portefeuille porte alors sur les actifs suivant : un stock de ressource non-renouvelable détenu en terre, qui ne procure aucun service productif ; un stock de ressource détenu hors terre, qui procure un flux de services productifs ; un stock d’un bien composite, qui peut être détenu soit sous forme de capital productif, soit sous forme d’une obligation dont le rendement est donné. Les productivités du secteur de production du bien composite et du secteur de l’extraction de la ressource évoluent de façon stochastique. On montre que la prédiction que l’on peut tirer quant au sentier de prix de la ressource diffère considérablement de celle qui découle de la règle d’Hotelling élémentaire et qu’aucune prédiction non ambiguë quant au comportement du sentier de prix ne peut être obtenue de façon analytique. / This thesis consists of three articles on the economics of nonrenewable natural re- sources. We consider in turn the following questions : the in-situ price of nonrenewable natural resources, the optimal extraction rate and the price of nonrenewable and durable resources.
The purpose of the first article is to estimate the in-situ price of nonrenewable natural resources using average extraction cost data as proxy for marginal cost. Using the regime switching Generalized Method of Moments (GMM) estimation technique, a dynamic of the market price derived from the first-order conditions of a Hotelling model is estimated with panel data for fourteen nonrenewable resources. I find results that tend to support the model. First, it appears that the Hotelling model has a good explanatory power of the observed market prices. Second, although the fitted prices seem to be subject to structural breaks over time, this does not have a significant impact on the explanatory power of the model. Third, there is evidence that marginal extraction cost can be approximated by average extraction cost data. Fourth, when allowing for structural breaks, estimates of the in-situ price decrease or exhibit an inverted U-shape over time and appear to be positively correlated with the market price. Fifth, for nine of the fourteen minerals, the difference between the estimates of the in-situ price with and without allowing for structural breaks is a zero-mean process.
|
184 |
Modélisation, création et évaluation de ux de terminologies et de terminologies d'interface : application à la production d'examens complémentaires de biologie et d'imagerie médicale.Griffon, Nicolas 25 October 2013 (has links) (PDF)
Les intérêts théoriques, cliniques et économiques, de l'informatisation des prescriptions au sein des établissements de santé sont nombreux : diminution du nombre de prescriptions, amélioration de leur pertinence clinique, diminution des erreurs médicales... Ces béné ces restent théoriques car l'informatisation des prescriptions est, en pratique, confrontée à de nombreux problèmes, parmi lesquels les problèmes d'interopérabilité et d'utilisabilité des solutions logicielles. L'utilisation de terminologies d'interface au sein de ux de terminologies permettrait de dépasser ces problèmes. L'objectif principal de ce travail était de modéliser et développer ces ux de terminologies pour la production d'examens de biologie et d'imagerie médicale puis d'en évaluer les béné ces en termes d'interopérabilité et d'utilisabilité. Des techniques d'analyse des processus ont permis d'aboutir à une modélisation des ux de terminologies qui semble commune à de nombreux domaines. La création des ux proprement dits repose sur des terminologies d'interface, éditées pour l'occasion, et des référentiels nationaux ou internationaux reconnus. Pour l'évaluation, des méthodes spéci- ques mises au point lors du travail d'intégration d'une terminologie d'interface iconique au sein d'un moteur de recherche de recommandations médicales et d'un dossier médical, ont été appliquées. Les ux de terminologies créés induisaient d'importantes pertes d'information entre les di érents systèmes d'information. En imagerie, la terminologie d'interface de prescription était signi cativement plus simple à utiliser que les autres terminologies, une telle di érence n'a pas été mise en évidence dans le domaine de la biologie. Si les ux de terminologies ne sont pas encore fonctionnels, les terminologies d'interface, elles, sont disponibles pour tout établissement de santé ou éditeur de logiciels et devraient faciliter la mise en place de logiciels d'aide à la prescription.
|
185 |
Étude et réalisation d'un système de localisation en six dimensions pour la chirurgie assistée par ordinateurChassat, Fabrice 26 March 2001 (has links) (PDF)
La plupart des Gestes Médicaux-Chirurgicaux Assistés par Ordinateur (G.M.C.A.O.) nécessitent l'utilisation d'un localisateur en six-dimensions. Il s'agit d'un système permettant de déterminer et de suivre la position et l'orientation de corps rigides constitués de marqueurs dans l'espace. De nombreux localisateurs ont été utilisés en chirurgie. Très peu de systèmes sont dédiés spécifiquement à la chirurgie ainsi ils ne répondent pas entièrement de façon satisfaisante aux contraintes du domaine. Nous présentons dans cette thèse, une approche originale de la localisation. A partir d'une étude des applications chirurgicales utilisant un localisateur, nous avons défini un ensemble de critères qualitatifs (encombrement, poids, forme) et quantitatifs en particulier sur la précision pour laquelle un protocole générique d'évaluation des localisateurs pour la chirurgie est proposé. Ces critères nous ont conduit à proposer une évolution des principaux systèmes utilisés aujourd'hui (les localisateurs optiques) afin de les rendre totalement adaptés aux besoins du domaine. En particulier, il est apparu que le coût, la précision et l'ergonomie globale des systèmes existants bien que satisfaisantes dans la plupart des cas étaient insuffisantes pour des applications exigeantes. Nous avons étudié et nous détaillons dans cette thèse deux prototypes permettant de répondre aux problèmes posés par le coût, la précision et surtout l'ergonomie. A partir de la base commune d'un localisateur par stéréovision passive repérant des marqueurs ponctuels, nous proposons une évolution originale basée sur la localisation et l'identification de marqueurs linéaires par le rapport de Thalès pour améliorer la visibilité des cibles. Enfin nous proposons deux concepts très innovants de localisation répondant à l'inconvénient majeur des systèmes optiques qui doivent avoir une ligne de vue entre les caméras et les marqueurs libre de tout obstacle.
|
186 |
Perception de l'environnement par radar hyperfréquence. Application à la localisation et la cartographie simultanées, à la détection et au suivi d'objets mobiles en milieu extérieurVivet, Damien 05 December 2011 (has links) (PDF)
Dans le cadre de la robotique mobile extérieure, les notions de perception et de localisation sont essentielles au fonctionnement autonome d'un véhicule. Les objectifs de ce travail de thèse sont multiples et mènent vers un but de localisation et de cartographie simultanée d'un environnement extérieur dynamique avec détection et suivi d'objet mobiles (SLAMMOT) à l'aide d'un unique capteur extéroceptif tournant de type radar dans des conditions de circulation dites "réalistes", c'est-à-dire à haute vitesse soit environ 30 km/h. Il est à noter qu'à de telles vitesses, les données acquises par un capteur tournant son corrompues par le déplacement propre du véhicule. Cette distorsion, habituellement considérée comme une perturbation, est analysée ici comme une source d'information. Cette étude vise également à évaluer les potentialités d'un capteur radar de type FMCW (onde continue modulée en fréquence) pour le fonctionnement d'un véhicule robotique autonome. Nous avons ainsi proposé différentes contributions : - une correction de la distorsion à la volée par capteurs proprioceptifs qui a conduit à une application de localisation et de cartographie simultanées (SLAM), - une méthode d'évaluation de résultats de SLAM basées segment, - une considération de la distorsion des données dans un but proprioceptif menant à une application SLAM, - un principe d'odométrie fondée sur les données Doppler propres au capteur radar, - une méthode de détection et de pistage d'objets mobiles : DATMO avec un unique radar.
|
187 |
Optimal portfolio selection with transaction costsKoné, N'Golo 05 1900 (has links)
Le choix de portefeuille optimal d'actifs a été depuis longtemps et continue d'être un sujet d'intérêt majeur dans le domaine de la finance. L'objectif principal étant de trouver la meilleure façon d'allouer les ressources financières dans un ensemble d'actifs disponibles sur le marché financier afin de réduire les risques de fluctuation du portefeuille et d'atteindre des rendements élevés. Néanmoins, la littérature de choix de portefeuille a connu une avancée considérable à partir du 20ieme siècle avec l'apparition de nombreuses stratégies motivées essentiellement par le travail pionnier de Markowitz (1952) qui offre une base solide à l'analyse de portefeuille sur le marché financier. Cette thèse, divisée en trois chapitres, contribue à cette vaste littérature en proposant divers outils économétriques pour améliorer le processus de sélection de portefeuilles sur le marché financier afin d'aider les intervenants de ce marché.
Le premier chapitre, qui est un papier joint avec Marine Carrasco, aborde un problème de sélection de portefeuille avec coûts de transaction sur le marché financier. Plus précisément, nous développons une procédure de test simple basée sur une estimation de type GMM pour évaluer l'effet des coûts de transaction dans l'économie, quelle que soit la forme présumée des coûts de transaction dans le modèle. En fait, la plupart des études dans la littérature sur l'effet des coûts de transaction dépendent largement de la forme supposée pour ces frictions dans le modèle comme cela a été montré à travers de nombreuses études (Dumas and Luciano (1991), Lynch and Balduzzi (1999), Lynch and Balduzzi (2000), Liu and Loewenstein (2002), Liu (2004), Lesmond et al. (2004), Buss et al. (2011), Gârleanu and Pedersen (2013), Heaton and Lucas (1996)). Ainsi, pour résoudre ce problème, nous développons une procédure statistique, dont le résultat est indépendant de la forme des coûts de transaction, pour tester la significativité de ces coûts dans le processus d'investissement sur le marché financier. Cette procédure de test repose sur l'hypothèse que le modèle estimé par la méthode des moments généralisés (GMM) est correctement spécifié. Un test commun utilisé pour évaluer cette hypothèse est le J-test proposé par Hansen (1982). Cependant, lorsque le paramètre d'intérêt se trouve au bord de l'espace paramétrique, le J-test standard souffre d'un rejet excessif. De ce fait, nous proposons une procédure en deux étapes pour tester la sur-identification lorsque le paramètre d'intérêt est au bord de l'espace paramétrique. Empiriquement, nous appliquons nos procédures de test à la classe des anomalies utilisées par Novy-Marx and Velikov (2016). Nous montrons que les coûts de transaction ont un effet significatif sur le comportement des investisseurs pour la plupart de ces anomalies. Par conséquent, les investisseurs améliorent considérablement les performances hors échantillon en tenant compte des coûts de transaction dans le processus d'investissement.
Le deuxième chapitre aborde un problème dynamique de sélection de portefeuille de grande taille. Avec une fonction d'utilité exponentielle, la solution optimale se révèle être une fonction de l'inverse de la matrice de covariance des rendements des actifs. Cependant, lorsque le nombre d'actifs augmente, cet inverse devient peu fiable, générant ainsi une solution qui s'éloigne du portefeuille optimal avec de mauvaises performances. Nous proposons deux solutions à ce problème. Premièrement, nous pénalisons la norme des poids du portefeuille optimal dans le problème dynamique et montrons que la stratégie sélectionnée est asymptotiquement efficace. Cependant, cette méthode contrôle seulement en partie l'erreur d'estimation dans la solution optimale car elle ignore l'erreur d'estimation du rendement moyen des actifs, qui peut également être importante lorsque le nombre d'actifs sur le marché financier augmente considérablement. Nous proposons une méthode alternative qui consiste à pénaliser la norme de la différence de pondérations successives du portefeuille dans le problème dynamique pour garantir que la composition optimale du portefeuille ne fluctue pas énormément entre les périodes. Nous montrons que, sous des conditions de régularité appropriées, nous maîtrisons mieux l'erreur d'estimation dans le portefeuille optimal avec cette nouvelle procédure. Cette deuxième méthode aide les investisseurs à éviter des coûts de transaction élevés sur le marché financier en sélectionnant des stratégies stables dans le temps. Des simulations ainsi qu'une analyse empirique confirment que nos procédures améliorent considérablement la performance du portefeuille dynamique.
Dans le troisième chapitre, nous utilisons différentes techniques de régularisation (ou stabilisation) empruntées à la littérature sur les problèmes inverses pour estimer le portefeuille diversifié tel que définie par Choueifaty (2011). En effet, le portefeuille diversifié dépend du vecteur de volatilité des actifs et de l'inverse de la matrice de covariance du rendement des actifs. En pratique, ces deux quantités doivent être remplacées par leurs contrepartie empirique. Cela génère une erreur d'estimation amplifiée par le fait que la matrice de covariance empirique est proche d'une matrice singulière pour un portefeuille de grande taille, dégradant ainsi les performances du portefeuille sélectionné. Pour résoudre ce problème, nous étudions trois techniques de régularisation, qui sont les plus utilisées : le rigde qui consiste à ajouter une matrice diagonale à la matrice de covariance, la coupure spectrale qui consiste à exclure les vecteurs propres associés aux plus petites valeurs propres, et Landweber Fridman qui est une méthode itérative, pour stabiliser l'inverse de matrice de covariance dans le processus d'estimation du portefeuille diversifié. Ces méthodes de régularisation impliquent un paramètre de régularisation qui doit être choisi. Nous proposons donc une méthode basée sur les données pour sélectionner le paramètre de stabilisation de manière optimale. Les solutions obtenues sont comparées à plusieurs stratégies telles que le portefeuille le plus diversifié, le portefeuille cible, le portefeuille de variance minimale et la stratégie naïve 1 / N à l'aide du ratio de Sharpe dans l'échantillon et hors échantillon. / The optimal portfolio selection problem has been and continues to be a subject of interest in finance. The main objective is to find the best way to allocate the financial resources in a set of assets available on the financial market in order to reduce the portfolio fluctuation risks and achieve high returns. Nonetheless, there has been a strong advance in the literature of the optimal allocation of financial resources since the 20th century with the proposal of several strategies for portfolio selection essentially motivated by the pioneering work of Markowitz (1952)which provides a solid basis for portfolio analysis on the financial market. This thesis, divided into three chapters, contributes to this vast literature by proposing various economic tools to improve the process of selecting portfolios on the financial market in order to help stakeholders in this market.
The first chapter, a joint paper with Marine Carrasco, addresses a portfolio selection problem with trading costs on stock market. More precisely, we develop a simple GMM-based test procedure to test the significance of trading costs effect in the economy regardless of the form of the transaction cost. In fact, most of the studies in the literature about trading costs effect depend largely on the form of the frictions assumed in the model (Dumas and Luciano (1991), Lynch and Balduzzi (1999), Lynch and Balduzzi (2000), Liu and Loewenstein (2002), Liu (2004), Lesmond et al. (2004), Buss et al. (2011), Gârleanu and Pedersen (2013), Heaton and Lucas (1996)). To overcome this problem, we develop a simple test procedure which allows us to test the significance of trading costs effect on a given asset in the economy without any assumption about the form of these frictions. Our test procedure relies on the assumption that the model estimated by GMM is correctly specified. A common test used to evaluate this assumption is the standard J-test proposed by Hansen (1982). However, when the true parameter is close to the boundary of the parameter space, the standard J-test based on the chi2 critical value suffers from overrejection. To overcome this problem, we propose a two-step procedure to test overidentifying restrictions when the parameter of interest approaches the boundary of the parameter space. In an empirical analysis, we apply our test procedures to the class of anomalies used in Novy-Marx and Velikov (2016). We show that transaction costs have a significant effect on investors' behavior for most anomalies. In that case, investors significantly improve out-of-sample performance by accounting for trading costs.
The second chapter addresses a multi-period portfolio selection problem when the number of assets in the financial market is large. Using an exponential utility function, the optimal solution is shown to be a function of the inverse of the covariance matrix of asset returns. Nonetheless, when the number of assets grows, this inverse becomes unreliable, yielding a selected portfolio that is far from the optimal one. We propose two solutions to this problem. First, we penalize the norm of the portfolio weights in the dynamic problem and show that the selected strategy is asymptotically efficient. However, this method partially controls the estimation error in the optimal solution because it ignores the estimation error in the expected return, which may also be important when the number of assets in the financial market increases considerably. We propose an alternative method that consists of penalizing the norm of the difference of successive portfolio weights in the dynamic problem to guarantee that the optimal portfolio composition does not fluctuate widely between periods. We show, under appropriate regularity conditions, that we better control the estimation error in the optimal portfolio with this new procedure. This second method helps investors to avoid high trading costs in the financial market by selecting stable strategies over time. Extensive simulations and empirical results confirm that our procedures considerably improve the performance of the dynamic portfolio.
In the third chapter, we use various regularization (or stabilization) techniques borrowed from the literature on inverse problems to estimate the maximum diversification as defined by Choueifaty (2011). In fact, the maximum diversification portfolio depends on the vector of asset volatilities and the inverse of the covariance matrix of assets distribution. In practice, these two quantities need to be replaced by their sample counterparts. This results in estimation error which is amplified by the fact that the sample covariance matrix may be close to a singular matrix in a large financial market, yielding a selected portfolio far from the optimal one with very poor performance. To address this problem, we investigate three regularization techniques, such as the ridge, the spectral cut-off, and the Landweber-Fridman, to stabilize the inverse of the covariance matrix in the investment process. These regularization schemes involve a tuning parameter that needs to be chosen. So, we propose a data-driven method for selecting the tuning parameter in an optimal way. The resulting regularized rules are compared to several strategies such as the most diversified portfolio, the target portfolio, the global minimum variance portfolio, and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio.
|
188 |
The social and interpersonal dimensions of measuring loss of autonomy : expectations among family caregivers and home care social workers in QuébecGilbert, Norma 08 1900 (has links)
No description available.
|
189 |
Les actifs incorporels de l'entreprise en difficulté / The intangible assets of the company in difficultyAndré, Étienne 06 December 2018 (has links)
La mutation des économies a transformé les richesses en profondeur en les désincarnant. Ce phénomène s’est traduit par l’accroissement de valeurs sans matière au sein des entreprises et, incidemment, lorsqu’elles éprouvent des difficultés. La notion d’actifs incorporels place la valeur au centre des préoccupations et renvoie à une réalité tant juridique qu’économique. Cette approche révèle leur singularité dans un contexte de défaillance à travers l’observation des opérations d’évaluation et de réalisation. D’une part, l’évaluation des actifs incorporels se montre défectueuse, révélant les carences de la comptabilité française, qui peine à retranscrire la valeur de ces actifs, et plus largement, mettant en exergue les limites des méthodes d’évaluation de ces actifs dans un contexte de difficulté. D’autre part, la réalisation des actifs incorporels est complexifiée par les modes de cession ou des garanties constituées. Ainsi, la singularité des actifs incorporels rend difficile leur maîtrise. Partant, des solutions peuvent être trouvées dans le cadre du droit des entreprises en difficulté. Une grille de lecture des actifs incorporels peut d’ores et déjà s’articuler autour de la valeur et de son interaction avec l’exploitation. Certains actifs incorporels, tels qu’un logiciel ou un fichier-client, sont directement corrélés à l’activité de l’entreprise et ont tendance à se dévaloriser au fur et à mesure des difficultés de celle-ci. D’autres actifs incorporels, tels les créances et les droits sociaux, reposant sur des éléments extérieurs à l’entreprise, ne perdent pas automatiquement leur valeur en présence de difficultés. La division des actifs incorporels peut donc s’opérer entre les actifs incorporels dont la valeur s’établit à l’aune de l’exploitation, et ceux dont la valeur ne lui est pas directement liée. Ces actifs incorporels suscitent par ailleurs une évolution du droit des entreprises en difficulté au niveau des opérations d’évaluation et de réalisation afin d’être mieux appréhendés. La prise en compte de ces évolutions est indispensable. L’importance grandissante des actifs incorporels au sein des entreprises en difficulté, ne doit pas être ignorée au risque sinon de les affaiblir davantage, de décrédibiliser le cadre judiciaire du traitement des entreprises en difficulté. / The mutation of the economy has fundamentally transformed wealth by disembodying it. This has led to the increase in intangible wealth within companies and, incidentally, when they experience difficulties. The concept of intangible assets places centers on value and refers to both a legal and economic reality. This approach reveals their exceptional character in a context of default by observing operations related to valuation and transfer. On the one hand, the valuation of intangible assets is defective, revealing the shortcomings of French accounting, which struggles to translate the value of these assets, and more broadly, highlights the limits of the methods used to value these assets in a difficult context. On the other hand, the transfer of intangible assets is made more complex by the methods of sale or guarantees provided. Thus, the exceptional nature of intangible assets makes them difficult to master. However, solutions can be found in law governing companies in financial difficulty. An index for measuring intangible assets can already be based on value and its interaction with business operations. Some intangible assets, such as software or client files, are directly correlated to the company's activity and tend to devalue as the company's difficulties arise. Other intangible assets, such as receivables and social rights, based on elements external to the company, do not automatically lose their value in the event of difficulties. The division of intangible assets can therefore be made between those intangible assets whose value is established based on exploitation, and those whose value is not directly related to it. Consideration of valuation and transfer operations in relation to intangible assets has led to changes in the law governing companies in difficulty. It is essential to take these developments into account. The growing importance of intangible assets within companies in difficulty must not be ignored at the risk of weakening them further and undermining the judicial framework for such companies.
|
190 |
Évaluation interdisciplinaire d'un programme de formation à visées préventives dispensé à des travailleurs avec ordinateur : analyse ergonomique et psychodynamique du travailTrudel, Louis January 1999 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
Page generated in 0.0868 seconds