261 |
Une approche générique pour l'analyse croisant contenu et usage des sites Web par des méthodes de bipartitionnement / A generic approach to combining web content and usage analysis using biclustering algorithmsCharrad, Malika 22 March 2010 (has links)
Dans cette thèse, nous proposons une nouvelle approche WCUM (Web Content and Usage Mining based approach) permettant de relier l'analyse du contenu à l'analyse de l'usage d'un site Web afin de mieux comprendre le comportement général des visiteurs du site. Ce travail repose sur l'utilisation de l'algorithme CROKI2 de classification croisée implémenté selon deux stratégies d'optimisation différentes que nous comparons à travers des expérimentations sur des données générées artificiellement. Afin de pallier le problème de détermination du nombre de classes sur les lignes et les colonnes, nous proposons de généraliser certains indices proposés initialement pour évaluer les partitions obtenues par des algorithmes de classification simple, aux algorithmes de classification simultanée. Pour évaluer la performance de ces indices nous proposons un algorithme de génération de biclasses artificielles pour effectuer des simulations et valider les résultats. Des expérimentations sur des données artificielles ainsi qu'une application sur des données réelles ont été réalisées pour évaluer l'efficacité de l'approche proposée. / In this thesis, we propose a new approach WCUM (Web Content and Usage Mining based approach) for linking content analysis to usage analysis of a website to better understand the general behavior of the web site visitors. This work is based on the use of the block clustering algorithm CROKI2 implemented by two different strategies of optimization that we compared through experiments on artificially generated data. To mitigate the problem of determination of the number of clusters on rows and columns, we suggest to generalize the use of some indices originally proposed to evaluate the partitions obtained by clustering algorithms to evaluate bipartitions obtained by simultaneous clustering algorithms. To evaluate the performance of these indices on data with biclusters structure, we proposed an algorithm for generating artificial data to perform simulations and validate the results. Experiments on artificial data as well as on real data were realized to estimate the efficiency of the proposed approach.
|
262 |
Dissémination de données dans les réseaux véhiculaires / Data dissemination in vehicular networksIdir, Lilia 21 October 2015 (has links)
Le nombre de véhicules circulant sur les routes dans le monde est passé de 500 millions en 1986 à 1 milliard de véhicules en 2010. Un tel réseau routier immense a apporté un certain confort à de nombreux conducteurs mais d'un autre coté il a représenté environs 1,24 millions d'accidents en 2010. Avec ces chiffres vient l'augmentation du niveau des émissions de CO2 et des milliards d'heures perdues dans les embouteillages. Avec le progrès et le développement des technologies sans fil ces dernières années, les réseaux véhiculaires ont rapidement évolués. Beaucoup de constructeurs automobiles et de pays ont intégré et imaginé différentes applications dans les réseaux véhiculaires : des applications de sécurité routières, d'autres pour l'information sur le trafic, ainsi que des applications de divertissement. Cette dernière catégorie d'applications se distingue des autres par la quantité et le volume de données échangées, et constitue un réel problème dû à la nature des communications sans fil véhiculaires. Dans cette thèse, nous traitons le problème de la dissémination d'information dans les systèmes véhiculaires distribués. Notre objectif principal est de proposer des solutions pratiques et réalisables pour diffuser les données dans des environnements véhiculaires réalistes. Le concept de la diffusion des données est large et significatif. Dans ce contexte, nous nous référons à la diffusion de données chaque fois qu'il y a une certaine quantité de données qui doit être répartie sur un réseau distribué sans fil. Les données sont envoyées vers plusieurs destinations (même à tous les nœuds du réseau dans certain cas) qui sont intéressés pour récupérer la totalité ou une partie des informations générées. A titre d'exemples, nous pouvons considérer les applications de partage de fichiers, la diffusion de fichiers multimédia et ainsi de suite. Nous abordons dans cette thèse le problème de dissémination de données dans les réseaux véhiculaires, plus précisément la dissémination de grands volumes de données tel que le contenu multimédia. Avec l'évolution au cours de ces dernières années des réseaux véhiculaires notamment grâce au support de nombreux constructeurs automobiles (e.x. Toyota, Nissan, BMW, Ford, etc.), la quantité de données échangée a augmenté de manière exponentielle au fil des années. Malheureusement malgré l'avancement des technologies de communications sans fil, l'échange de grands volumes de données dans des réseaux véhiculaires reste un réel défi, à cause des caractéristiques de communications sans fil et celles spécifiques aux réseaux véhiculaires. / The number of vehicles on the roads in the world increased from 500 million in 1986 to 1 billion vehicles in 2010. Such a huge road network has brought some comfort to many drivers but on the other hand it represented around 1.24 million accidents in 2010. With the progress and development of wireless technologies these recent years, vehicular networks quickly evolved. Many car manufacturers and countries have built and imagined different applications in vehicular networks: road safety applications, others for traffic information, and entertainment applications. This last category of applications is distinguished from others by the quantity and volume of exchanged data, and represents a real problem due to the lossy nature of vehicular communications. In this thesis, we address the problem of data dissemination in distributed vehicular systems. Our main objective is to provide practical and workable solutions to disseminate data in realistic vehicular environments. The concept of data dissemination is large and significant. In this context, we call data dissemination each time there is a certain amount of data which must be distributed on in wireless network. The data is sent to multiple destinations who are interested to recover all or part of the information. As examples, we can consider the file sharing applications, streaming multimedia files and so on. We discuss in this thesis the data dissemination problem in vehicular networks, specifically the dissemination of large volumes of data such as content distribution. With the evolution in recent years of vehicular networks thanks to many car manufacturers support (eg Toyota, Nissan, BMW, Ford, etc.), the amount of exchanged data has increased exponentially over the years. Unfortunately, despite the advancement of wireless communications technologies, exchange large volumes of data in vehicular networks remains a challenge because of wireless communications features and those specific to vehicular networks.
|
263 |
MPEG-4 AVC stream watermarking / Tatouage du flux compressé MPEG-4 AVCHasnaoui, Marwen 28 March 2014 (has links)
La présente thèse aborde le sujet de tatouage du flux MPEG-4 AVC sur ses deux volets théoriques et applicatifs en considérant deux domaines applicatifs à savoir la protection du droit d’auteur et la vérification de l'intégrité du contenu. Du point de vue théorique, le principal enjeu est de développer un cadre de tatouage unitaire en mesure de servir les deux applications mentionnées ci-dessus. Du point de vue méthodologique, le défi consiste à instancier ce cadre théorique pour servir les applications visées. La première contribution principale consiste à définir un cadre théorique pour le tatouage multi symboles à base de modulation d’index de quantification (m-QIM). La règle d’insertion QIM a été généralisée du cas binaire au cas multi-symboles et la règle de détection optimale (minimisant la probabilité d’erreur à la détection en condition du bruit blanc, additif et gaussien) a été établie. Il est ainsi démontré que la quantité d’information insérée peut être augmentée par un facteur de log2m tout en gardant les mêmes contraintes de robustesse et de transparence. Une quantité d’information de 150 bits par minutes, soit environ 20 fois plus grande que la limite imposée par la norme DCI est obtenue. La deuxième contribution consiste à spécifier une opération de prétraitement qui permet d’éliminer les impactes du phénomène du drift (propagation de la distorsion) dans le flux compressé MPEG-4 AVC. D’abord, le problème a été formalisé algébriquement en se basant sur les expressions analytiques des opérations d’encodage. Ensuite, le problème a été résolu sous la contrainte de prévention du drift. Une amélioration de la transparence avec des gains de 2 dB en PSNR est obtenue / The present thesis addresses the MPEG-4 AVC stream watermarking and considers two theoretical and applicative challenges, namely ownership protection and content integrity verification.From the theoretical point of view, the thesis main challenge is to develop a unitary watermarking framework (insertion/detection) able to serve the two above mentioned applications in the compressed domain. From the methodological point of view, the challenge is to instantiate this theoretical framework for serving the targeted applications. The thesis first main contribution consists in building the theoretical framework for the multi symbol watermarking based on quantization index modulation (m-QIM). The insertion rule is analytically designed by extending the binary QIM rule. The detection rule is optimized so as to ensure minimal probability of error under additive white Gaussian noise distributed attacks. It is thus demonstrated that the data payload can be increased by a factor of log2m, for prescribed transparency and additive Gaussian noise power. A data payload of 150 bits per minute, i.e. about 20 times larger than the limit imposed by the DCI standard, is obtained. The thesis second main theoretical contribution consists in specifying a preprocessing MPEG-4 AVC shaping operation which can eliminate the intra-frame drift effect. The drift represents the distortion spread in the compressed stream related to the MPEG encoding paradigm. In this respect, the drift distortion propagation problem in MPEG-4 AVC is algebraically expressed and the corresponding equations system is solved under drift-free constraints. The drift-free shaping results in gain in transparency of 2 dB in PSNR
|
264 |
Amélioration de la détection des concepts dans les vidéos en coupant de plus grandes tranches du monde visuel / Cutting the visual world into bigger slices for improved video concept detectionNiaz, Usman 08 July 2014 (has links)
Les documents visuels comprenant des images et des vidéos sont en croissance rapide sur Internet et dans nos collections personnelles. Cela nécessite une analyse automatique du contenu visuel qui fait appel à la conception de méthodes intelligentes pour correctement indexer, rechercher et récupérer des images et des vidéos. Cette thèse vise à améliorer la détection automatique des concepts dans les vidéos sur Internet. Nos contributions portent sur des différents niveaux dans le cadre de détection de concept et peuvent être divisés en trois parties principales. La première partie se focalise sur l’amélioration du modèle de représentation des vidéos « Bag-of-Words (BOW) » en proposant un nouveau mécanisme de construction qui utilise des étiquettes de concepts et une autre technique qui ajoute un raffinement à la signature BOW basée sur la distribution de ses éléments. Nous élaborons ensuite des méthodes pour intégrer des entités semblables et dissemblables pour construire des modèles de reconnaissance améliorés dans la deuxième partie. A ce stade-là, nous observons l’information potentielle que les concepts partagent et construisons des modèles pour les méta-concepts dont sont dérivés les résultats spécifiques de concepts. Cela améliore la reconnaissance des concepts qui ont peu d’exemples annotés. Enfin, nous concevons certaines méthodes d'apprentissage semi-supervisé pour bénéficier de la quantité importante de données non étiquetées. Nous proposons des techniques pour améliorer l'algorithme de cotraining avec une sélection optimale des classifieurs utilisés. / Visual material comprising images and videos is growing ever so rapidly over the internet and in our personal collections. This necessitates automatic understanding of the visual content which calls for the conception of intelligent methods to correctly index, search and retrieve images and videos. This thesis aims at improving the automatic detection of concepts in the internet videos by exploring all the available information and putting the most beneficial out of it to good use. Our contributions address various levels of the concept detection framework and can be divided into three main parts. The first part improves the Bag of Words (BOW) video representation model by proposing a novel BOW construction mechanism using concept labels and by including a refinement to the BOW signature based on the distribution of its elements. We then devise methods to incorporate knowledge from similar and dissimilar entities to build improved recognition models in the second part. Here we look at the potential information that the concepts share and build models for meta-concepts from which concept specific results are derived. This improves recognition for concepts lacking labeled examples. Lastly we contrive certain semi-supervised learning methods to get the best of the substantial amount of unlabeled data. We propose techniques to improve the semi-supervised cotraining algorithm with optimal view selection.
|
265 |
Resource allocation in cloud and Content Delivery Network (CDN) / Allocation des ressources dans le cloud et les réseaux de diffusion de contenuAhvar, Shohreh 10 July 2018 (has links)
L’objectif de cette thèse est de présenter de nouveaux algorithmes de répartition des ressources sous la forme de machines virtuelles (VMs) et fonction de réseau virtuel (VNFs) dans les Clouds et réseaux de diffusion de contenu (CDNs). La thèse comprend deux principales parties: la première se concentre sur la rentabilité des Clouds distribués, et développe ensuite les raisons d’optimiser les coûts ainsi que les émissions de carbone. Cette partie comprend quatre contributions. La première contribution est une étude de l’état de l’art sur la répartition des coûts et des émissions de carbone dans les environnements de clouds distribués. La deuxième contribution propose une méthode d’allocation des ressources, appelée NACER, pour les clouds distribués. La troisième contribution présente une méthode de placement VM efficace en termes de coûts et de carbone (appelée CACEV) pour les clouds distribués verts. Pour obtenir une meilleure performance, la quatrième contribution propose une méthode dynamique de placement VM (D-CACEV) pour les clouds distribués. La deuxième partie propose des algorithmes de placement de VNFs dans les Clouds et réseaux de CDNs pour optimiser les coûts. Cette partie comprend cinq contributions. Une étude de l’état de l’art sur les solutions proposées est le but de la première contribition. La deuxième contribution propose une méthode d’allocation des ressources, appelée CCVP, pour le provisionnement de service réseau dans les clouds et réseaux de ISP. La troisième contribution implémente le résultat de l’algorithme CCVP dans une plateforme réelle. La quatrième contribution considère l’effet de la permutation de VNFs dans les chaîne de services et la cinquième contribution explique le placement de VNFs pour les services à valeur ajoutée dans les CDNs / High energy costs and carbon emissions are two significant problems in distributed computing domain, such as distributed clouds and Content Delivery Networks (CDNs). Resource allocation methods (e.g., in form of Virtual Machine (VM) or Virtual Network Function (VNF) placement algorithms) have a direct effect on cost, carbon emission and Quality of Service (QoS). This thesis includes three related parts. First, it targets the problem of resource allocation (i.e., in the form of network aware VM placement algorithms) for distributed clouds and proposes cost and carbon emission efficient resource allocation algorithms for green distributed clouds. Due to the similarity of the network-aware VM placement problem in distributed clouds with a VNF placement problem, the second part of the thesis, getting experience from the first part, proposes a new cost efficient resource allocation algorithm (i.e., VNF placement) for network service provision in data centers and Internet Service Provider (ISP) network. Finally, the last part of the thesis presents new cost efficient resource allocation algorithms (i.e., VNF placement) for value-added service provisioning in NFV-based CDNs
|
266 |
Modélisation et estimation des valeurs apportées au pays hôte pour aider à la décision dans l’élaboration des stratégies In-Country-Value / Modeling and measuring values brought to host country for assisting decisions in In-Country-Value strategies elaborationDernis, Mathieu 29 March 2019 (has links)
Ces travaux s’intéressent au choix des tratégies de création de valeur dans des pays pétroliers. Ils cherchent à offrir des outils à un décideur pour améliorer la compréhension du problème et procéder au choix de stratégies sous des contraintes de coûts. La thèse s’articule autour d’un processus d’aide à la décision adapté au contexte pétrolier et de trois questions de recherche : 1. Comment modéliser les valeurs durables apportées par des projets complexes dans un pays hôte ? 2. Comment outiller une entreprise d’une méthode d’estimation des valeurs créées localement en tenant compte des effets indirects et induits ? 3. Comment aider à la décision pour la sélection de stratégies agissant sur de multiples systèmes ? Pour y répondre, nous avons pris en compte les spécificités du contexte du contenu local dans le domaine pétrolier. Nous y avons apporté des méthodes de génie industriel et d’aide à la décision multicritère. Nous aboutissons à une proposition de modélisation de la valeur apportée à un pays hôte. Celle-ci nous permet d’introduire une méthodologie d’estimation des impacts d’une stratégie. Enfin, nous proposons une procédure pour réaliser des recommandations à un décideur. / Our research focus on the problem of choosing among value-creation strategies in the context of Oil and Gas development project. The objective is to offer tools to a decision maker to improve his understanding of the problem and to aid to decision. The thesis is structured around a decision-making process adapted to the Oil and Gas context and three research questions: 1. How to model the sustainable values brought by complex projects in a hostcountry? 2. How to furnish to a company a method to estimate local values brought, taking into account indirect and induced effects? 3. How to aid to select among strategies that impact multiple systems? To answer, we took into account the specificities of local content in the Oil and Gas. We brought metholodologies from industrial engineering and multicriteria decision aid. We propose a modeling of the value-added brought to a host country. This allows us to introduce an estimation methodology for the impacts of a strategy. Finally, we suggest a procedure for making recommendations to a decision maker.
|
267 |
Mise en visibilité ou invisibilisation de soi, l’organisation de la présentation de soi sur Instagram par les individus issus de la génération ZCadillac, Léo 12 1900 (has links)
Dans la Mise en scène de la vie quotidienne (1956), Erving Goffman fait ressortir que, dans la sphère « hors ligne », l’individu se produit quotidiennement sur différentes « scènes » identitaires, en fonction de différents « public ». En fonction des contextes, l’acteur choisit de se présenter sous un « masque social » approprié, selon qu’il se trouve, par exemple, avec ses parents, avec ses amis, avec son « crush » ou face à son employeur. Or, sur Instagram, l’utilisateur doit composer avec le mélange de ses différents « publics », sur une unique « scène » identitaire : son compte principal. Les individus issus de la génération Z en tant que « digital natives » sont très actifs dans la construction de leur identité numérique, si bien qu’ils ont parfois du mal à distinguer les limites entre la sphère réelle et la sphère virtuelle. D’autre part, ces jeunes adultes se trouvent à une étape charnière de leur vie, pris entre plusieurs préoccupations : trouver l’amour, assurer leur avenir professionnel, satisfaire leurs parents, marquer leur appartenance à un groupe de pairs…
L’objectif de ce mémoire consiste à mieux comprendre la façon dont les individus issus de la génération Z organisent leur présentation de soi sur Instagram. Pour ce faire, douze utilisateurs issus de la génération Z, actifs sur le réseau social Instagram ont été interrogés.
Les résultats de la recherche montrent que, en réaction aux différentes attentes qui pèsent sur eux, les jeunes utilisateurs développent sur leur compte principal une présentation de soi marquée par la recherche de neutralité, un profil Instagram « vitrine », une « façade » aseptisée qui satisfait les différents publics présents parmi leurs abonnés. Ce compte principal constitue la face « émergée » de l’identité sur Instagram. Mais, comme le suggère la métaphore tirée de l’iceberg, à travers d’autres fonctionnalités, sur Instagram, les utilisateurs développent, en parallèle de leurs contenus « grand public » et à l’abri de certains regards inquisiteurs, une identité « underground », qui correspond la face « immergée » de leur identité sur Instagram. Par le biais de leurs stories « amis proches » d’abord, puis, dans un détournement d’usage, via un compte secondaire (dit « Finstagram »), les jeunes utilisateurs revêtent un « masque social » bien différent du premier. La validation de leur identité n’étant plus une priorité sur cette scène « cachée », dans les « coulisses » de leur présentation de soi, les utilisateurs ne craignent plus d’exprimer leurs opinions, de se présenter sous le prisme de l’auto-dérision ou même d’exposer des pratiques socialement dévalorisées.
Ce mémoire constitue une première étude qualitative de l’organisation de la présentation de soi par les utilisateurs issus de la génération Z sur Instagram. / In The Presentation of Self in Everyday Life (1956), Erving Goffman highlights that in the “offline” sphere, the individual performs daily on different identity “stages” according to different “audiences.” The actor selects the appropriate “social mask” based on the context and the presence of certain “audience” members such as his parents, friends, “crush,” or employer. However, on Instagram, the user must perform for a mixture of different “audiences” on a single identity “stage”: his main account. As “digital natives,” individuals from Generation Z are highly active in constructing their online personas, to the point that they may sometimes have difficulty distinguishing the boundaries between real and online worlds. On the other hand, these young adults are at a pivotal stage of their lives where they are caught between various concerns: finding love, ensuring their professional future, meeting parental expectations, establishing their sense of belonging in a group of peers…
The objective of this thesis is to better understand the way individuals from Generation Z organize their self-presentation on Instagram. To pursue this goal, we interviewed twelve users from Generation Z who are active on the Instagram.
The results of this research show that in response to the various expectations weighing on them, young users developed a self-presentation on their primary Instagram account that emphasized neutrality. This account serves as a “showcase” profile and a sanitized “façade” that intends to satisfy the various audience members among their followers. It constitutes the “emerged” facet of identity on Instagram. However, as the iceberg metaphor suggests, users utilized other features on Instagram to develop an “underground” or “submerged” identity visible only to a select few alongside their “mainstream” content. First, through “close friends” stories, then, in a reconfiguration of Instagram features, through a secondary account (known as a “finstagram”), young users adopted a “social mask” very different from the one on their primary account. Since the validation of their identity is no longer a priority on this “hidden” stage, in the “backstage” of their self-presentation, users are no longer afraid to express their opinions, present themselves through the lens of self-deprecation or even expose socially stigmatized activity.
This thesis constitutes a first qualitative study about the organization of self-presentation by users from Generation Z on Instagram.
|
268 |
Enhancing factuality and coverage in summarization via referencing key extracted contentBelanger Albarran, Georges 04 1900 (has links)
Les résumés abstraits de dialogues permettent aux gens de comprendre rapidement les
aspects clés des conversations dont la synthèse nécessiterait autrement des efforts considérables.
Malgré les progrès considérables réalisés par les grands modèles de langage
(LLM), même les modèles les plus puissants souffrent encore d’hallucinations lorsqu’ils
génèrent des résumés abstraits et ne parviennent pas à couvrir des aspects importants
du contenu sous-jacent. En outre, la vérification humaine de la factualité d’un résumé
abstrait peut nécessiter un effort considérable. L’un des moyens de minimiser la charge
cognitive liée à la vérification de la qualité d’un résumé consiste à faire en sorte que
le résumé cite des phrases dans le contenu original. Cependant, il est rare que les ensembles
de données de résumés abstraits citent des passages de texte du contenu original.
Même les meilleurs LLM ont du mal à effectuer un résumé basé sur des citations.
Pour résoudre ce problème, nous créons l’ensemble de données Tweetsumm++,
composé de résumés abstraits soutenus par des citations de dialogues entre clients et
entreprises sur Twitter. Nous examinons également une méthode d’entraînement et de
formulation de problèmes multitâches qui apprend à effectuer conjointement un résumé
extractif et un résumé abstractif faisant référence au contenu extrait. Dans notre configuration,
le modèle est également chargé d’étiqueter les phrases clés dans des catégories
telles que ISSUE, RESOLUTION,WORKAROUND et autres, qui représentent les principaux
éléments clés d’un dialogue. Nous explorons l’impact de la mise au point d’un
LLM Mixtral open-source pour effectuer un résumé abstractif basé sur des citations et
une catégorisation des phrases clés. En outre, étant donné que l’acquisition d’étiquettes
pour un tel ensemble de données est coûteuse, nous explorons une nouvelle méthode
d’auto-étiquetage basée sur le feedback de l’IA qui bénéficie du format de résumé basé
sur les citations et peut améliorer les modèles en ce qui concerne la qualité des citations. / Abstractive summaries of dialogues allow people to quickly understand key aspects
of conversations that might otherwise take considerable effort to synthesize. Despite the
tremendous progress made by large language models (LLMs), even the most powerful
models still suffer from hallucinations when generating abstractive summaries and fail
to cover important aspects of the underlying content. Furthermore, human verification
of the factuality of an abstractive summary can entail significant effort. One way to
minimize the cognitive load of quality checking an abstractive summary is to have the
summary cite sentences within the original content. However, it is uncommon for abstractive
summarization datasets to cite passages of text from the original content. Even
the best LLMs struggle to perform citation-backed summarization. To address this issue,
we create the Tweetsumm++ dataset composed of citation-backed abstractive summaries
of dialogues between customers and companies on Twitter. We also examine a multi-task
problem formulation and training method that learns to jointly perform extractive, and
abstractive summarization which reference the extracted content. In our setup, the model
is also tasked with tagging key sentences into categories such as ISSUE, RESOLUTION,
WORKAROUND, and others that represent the main key elements of a dialogue. We explore
the impact of fine-tuning an open-source Mixtral LLM to perform citation-backed
abstractive summarization and key sentence categorization. Further, since acquiring labels
for such a dataset is costly, we explore a novel self-labeling method based on AI
feedback that benefits from the citation-based summarization format and can improve
models with respect to citation quality.
|
269 |
Validation du contenu d'un système d'information clientèle dédié aux victimes d'un traumatisme cranio-cérébral à partir d'une analyse de dossiers médicauxLabelle, Josée 04 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l’Université de Montréal / L'utilisation des systèmes d'information clientèle (SIC) fait l'objet de préoccupations majeures en réadaptation actuellement. L'identification du contenu d'un tel système pour mieux répondre aux besoins des cliniciens est une étape difficile à réaliser. L'objectif de cette étude est de déterminer la concordance entre la liste des variables du SIC TCC-Québec sélectionnées initialement à partir d'une consultation d'experts cliniciens et de chercheurs soutenue par une recension des écrits et les variables trouvées dans des dossiers médicaux. J Les dossiers de 82 usagers hospitalisés au cours des années 1997 et 1998, provenant de six établissements représentatifs des institutions qui utiliseront ce système, font l'objet d'une analyse. La collecte des données a consisté à identifier la présence des variables (n=231) du système lié à t'histoire personnelle, aux déficiences et aux incapacités sensori-motrices dans tes dossiers consultés. Pour assurer ta qualité des données extraites des dossiers, une procédure d'extraction standardisée et fidèle a été appliquée. Le pourcentage des variables trouvées dans les dossiers et le nombre de dossiers dans lequel chacune des variables est documentée ont été calculés selon les deux types de milieux cliniques (traumatologie et réadaptation) et selon les régions géographiques. Les résultats démontrent qu'il existe un écart important entre ce que les experts suggèrent d'inclure dans te système et ce qui est documenté en réalité en clinique. Malgré une légère variation de ['écart selon le type de milieu clinique (traumatologie et réadaptation) et selon les régions impliquées, cet écart demeure important pour les six centres étudiés, touchant une variable sur deux. De plus, vingt-trois pourcent des variables de la liste se trouvent dans plus de 70% des dossiers analysés. Ces résultats ont permis de formuler des recommandations sur les variables de ce système les plus pertinentes à retenir en regard des besoins informationnels des cliniciens et de la réalité clinique pour favoriser l'utilisation clinique du système. J De plus, au cours de l'étude de validation de contenu, il s'est avéré nécessaire de vérifier préalablement la fidélité intra et inter-évaluateurs de l'extraction des données à partir des dossiers médicaux. L'extraction des données a été effectuée par deux cliniciens à partir de 15 dossiers provenant de deux établissements d'un continuum de services pour la clientèle visée. Les résultats ont démontré une très bonne fidélité intra-évaluateur (k moy .65) et une fidélité inter-évaluateurs modérée (k moy .56). Les valeurs des kappa variaient de .33 à .86 et de .31 à .84 pour la fidélité intra et inter-évaluateurs, respectivement. Cette étude de fidélité a permis de repérer les sources d'erreurs potentielles, lors de l'extraction des données à partir de dossiers médicaux et de leur entrée dans une base de données. Conséquemment, ceci a permis de faire les ajustements nécessaires à la procédure et à la grille d'extraction des données, permettant d'effectuer avec confiance l'étude de validation du contenu du SIC à partir des dossiers médicaux.
|
270 |
L'institutionnalisation de l'éthique au sein de deux organisations québécoises et le rôle que joue la GRH : une étude de casCenteno, Jennifer 18 December 2024 (has links)
La mise en lumière d’inconduites, au sein d’organisations privées et publiques, ne sont que quelques-uns des facteurs qui ont entrainé, au cours des dernières décennies, des questionnements quant au rôle que devraient jouer ces organisations sur le plan éthique et social. La mise en place de dispositifs ayant pour but de soutenir l’éthique en milieu de travail donne dès lors forme à des efforts d’institutionnalisation de l’éthique. Or, une grande confusion persiste – au sein du discours public, managérial et même théorique – quant au mode de régulation sociale que constitue l’éthique. Ainsi, les initiatives déployées sous ce libellé s’inscrivent parfois dans des visées fort variées. En parallèle, la fonction ressources humaines, ainsi que les professionnels qui la composent (PRH), est soumise à une évaluation sévère de leur performance. Le rôle de ces derniers à titre de gardiens du contrat social des employés est pour sa part largement remis en question. C’est dans ce contexte que la présente thèse vise à explorer la forme que prend l’éthique organisationnelle, ainsi que les liens pouvant être tissés entre l’institutionnalisation de cette dernière et la fonction ressources humaines. Pour ce faire, deux organisations québécoises de grande taille (N=2) sont étudiées. Afin de contraster le discours organisationnel du discours des PRH, une analyse documentaire est effectuée et 35 entretiens semi-dirigés (N=35) auprès de PRH sont complétés. Les résultats suggèrent qu’en l’absence de formalisation, des pratiques informelles – voire une forme de corégulation – émergent afin de pallier à un manque de sens et de lignes directrices. Des facteurs tels que la nature politique et hiérarchique de l’organisation et de certaines prises de décision peuvent toutefois faire dévier celles-ci ainsi que les efforts d’institutionnalisation. De même, l’analyse de la place qui est accordée à l’éthique au sein d’un milieu de travail donné ne peut être évaluée par biais du seul concept d’infrastructure éthique. En effet, il doit être bonifié par la prise en considération des éléments de l’infrastructure RH touchant à l’éthique. De plus, dans le but de favoriser le développement de la compétence éthique – tant au plan individuel qu’organisationnel –, les infrastructures auraient avantage à incorporer les dimensions morales telles que les trois éthiques (sollicitude, justice, critique), et ce, pour un développement optimal. La présente thèse donne ainsi forme au développement du concept d’armature organisationnelle en soutien à l’éthique ainsi qu’à une modélisation du processus d’institutionnalisation de l’éthique au sein d’une organisation. / The bringing into light of misconducts, observed within private and public organisations alike, is only one of the factors which has in recent decades led to a questioning of their social and ethical roles. The implementation of mechanisms which aim to sustain ethics within the workplace thus shaped institutionalisation of ethics efforts. However, a great confusion persists – within the public, managerial and even theoretical discourse – as to the social regulation mode that is ethics. Consequently, initiatives deployed under this labelling often pursue very different aims. In parallel, the human resources function, as well as its professionals (HRP), is subjected to a severe performance evaluation. Notably the role of these professionals, as guardians of the social contract uniting employees to the organisation, is often called into question. It is in this context that this thesis aims to explore the form that organisational ethics take as well as the links which may be established between the institutionalisation of ethics and the human resources function. To achieve this, two large-size Quebec organisations (N=2) are studied. In order to contrast the organisational discourse to that of the HRPs, a documentary analysis is completed as well as thirty-five (N=35) semi-directed HRP interviews. The results suggest that in the absence of formalisation, informal practices – and even a form of coregulation – emerge to mitigate the absence or lack of sense and direction. However, factors such as the political and hierarchical nature of the organisation and of some of the decisions can make these, as well as institutionalisation efforts, deviate. Similarly, it is posited that the place that is granted to ethics within a given workplace cannot be evaluated by the sole concept of ethical infrastructure. Indeed, this concept must be complemented by the taking into consideration of the elements of the HR infrastructure which pertain to ethics. Moreover, in order to favour an optimal development of ethical competence – at both the individual and organisational levels –, infrastructures would benefit from the incorporation of moral dimensions such as the three ethics (care, justice, critique). This thesis thus gives shape to the concept of organisational framework in support of ethics as well as to a model of the institutionalisation process of ethics within organisations.
|
Page generated in 0.0823 seconds