• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 136
  • 37
  • 17
  • 1
  • Tagged with
  • 194
  • 74
  • 46
  • 27
  • 21
  • 21
  • 21
  • 19
  • 17
  • 17
  • 14
  • 13
  • 13
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Allocation de ressources et ordonnancement multi-utilisateurs : une approche basée sur l'équité / Resource allocation and multi-user scheduling

Medernach, Emmanuel 06 May 2011 (has links)
Les grilles de calcul et le “cloud computing” permettent de distribuer un ensemble de ressources informatiques, telles que du stockage ou du temps de calcul, à un ensemble d’utilisateurs en fonction de leurs demandes en donnant l’illusion de ressources infinies. Cependant, lorsque l’ensemble de ces ressources est insuffisant pour satisfaire les exigences des utilisateurs, des conflits d’intérêts surgissent. Ainsi, un libre accès à des ressources limitées peut entraîner une utilisation inefficace qui pénalise l’ensemble des participants. Dans de tels environnements, il devient nécessaire d’établir des procédures d’arbitrage afin de résoudre ces conflits en garantissant une distribution équitable aux différents utilisateurs. Nous présentons une nouvelle classe de problèmes : celle des ordonnancements multi-utilisateurs. Cette thèse aborde la notion d’équité au travers de problèmes d’allocation de ressources sous incertitudes et d’ordonnancement de tâches périodiques. / Grid and Cloud computing make possible the sharing of computer system resources, such as storage or computation time, among a set of users, according to their requests, thereby creating an illusion of infinite resources. However, as soon as those resources are insufficient to meet users’s expectations, conflicts of interest arise. Therefore, unlimited access to limited resources may lead to inefficient usage which penalizes the whole set of users. In such environments, arbitration becomes necessary in order to settle those conflicts and ensure a fair allocation to all users. We present two classes of problems : multi-user resource allocation under uncertainty and multi-user periodic task scheduling. We tackle these problems from the point of view of fairness.
42

Phénotypes biologiques de l'angioedème à kinine / Kinin mediated angioedema and biological phenotypes

Charignon, Delphine 19 December 2014 (has links)
L’angioedème (AO) à kinine est caractérisé par la survenue spontanée et récurrente d’oedèmes des tissus sous cutanés et sous muqueux, conséquence de l’accumulation des kinines sur l’endothélium vasculaire. La sévérité des AO dépend de leur localisation, ils sont déformants sur les tissus sous cutanés, douloureux au niveau de la muqueuse digestive et peuvent mettre en jeu le pronostic vital s’ils affectent le larynx. L’AO à kinine a d’abord été associé au déficit pour C1 Inhibiteur (C1Inh) puis des formes sans déficit pour C1Inh ont été décrites. L’AO est décrit comme une maladie multifactorielle pour laquelle l’ensemble des facteurs décisionnels n’est pas encore identifié. Ce travail a permis (1) de définir des paramètres stratégiques de la production des kinines pour l’AO, (2) d’identifier les paramètres impliqués et décisionnels pour la survenue des crises et leur sévérité, (3) de repérer des phénotypes biologiques des sujets atteints d’AO. / Kinin mediated angioedema (AO) is characterized by spontaneous and recurrent oedema affecting subcutaneous and submucosal tissue. Oedemas develop subsequently to kinin accumulation on vascular endothelium. AO severity is depending on localisation, they are warping on subcutaneous tissue, painful on digestive mucous and life treating when affected the larynx. Kinin mediated AO was first associated with C1 Inhibitor (C1Inh) deficiency and thereafter AO without C1Inh deficiency has been described. AO is a multifactorial disease for which all the decision-making factor(s) is(are) not yet identified. As results of this work, have emerged (1) a characterization of strategic parameters of the kinin production for AO, (2) an identification of significant and decision-making parameters for the attack onset and severity, (3) a cover of biological phenotypes of the AO patients
43

Load Balancing of Multi-physics Simulation by Multi-criteria Graph Partitioning / Equilibrage de charge pour des simulations multi-physiques par partitionnement multcritères de graphes

Barat, Remi 18 December 2017 (has links)
Les simulations dites multi-physiques couplent plusieurs phases de calcul. Lorsqu’elles sont exécutées en parallèle sur des architectures à mémoire distribuée, la minimisation du temps de restitution nécessite dans la plupart des cas d’équilibrer la charge entre les unités de traitement, pour chaque phase de calcul. En outre, la distribution des données doit minimiser les communications qu’elle induit. Ce problème peut être modélisé comme un problème de partitionnement de graphe multi-critères. On associe à chaque sommet du graphe un vecteur de poids, dont les composantes, appelées « critères », modélisent la charge de calcul porté par le sommet pour chaque phase de calcul. Les arêtes entre les sommets, indiquent des dépendances de données, et peuvent être munies d’un poids reflétant le volume de communication transitant entre les deux sommets. L’objectif est de trouver une partition des sommets équilibrant le poids de chaque partie pour chaque critère, tout en minimisant la somme des poids des arêtes coupées, appelée « coupe ». Le déséquilibre maximum toléré entre les parties est prescrit par l’utilisateur. On cherche alors une partition minimisant la coupe, parmi toutes celles dont le déséquilibre pour chaque critère est inférieur à cette tolérance. Ce problème étant NP-Dur dans le cas général, l’objet de cette thèse est de concevoir et d’implanter des heuristiques permettant de calculer efficacement de tels partitionnements. En effet, les outils actuels renvoient souvent des partitions dont le déséquilibre dépasse la tolérance prescrite. Notre étude de l’espace des solutions, c’est-à-dire l’ensemble des partitions respectant les contraintes d’équilibre, révèle qu’en pratique, cet espace est immense. En outre, nous prouvons dans le cas mono-critère qu’une borne sur les poids normalisés des sommets garantit que l’espace des solutions est non-vide et connexe. Nous fondant sur ces résultats théoriques, nous proposons des améliorations de la méthode multi-niveaux. Les outils existants mettent en oeuvre de nombreuses variations de cette méthode. Par l’étude de leurs codes sources, nous mettons en évidence ces variations et leurs conséquences à la lumière de notre analyse sur l’espace des solutions. Par ailleurs, nous définissons et implantons deux algorithmes de partitionnement initial, se focalisant sur l’obtention d’une solution à partir d’une partition potentiellement déséquilibrée, au moyen de déplacements successifs de sommets. Le premier algorithme effectue un mouvement dès que celui-ci améliore l’équilibre, alors que le second effectue le mouvement réduisant le plus le déséquilibre. Nous présentons une structure de données originale, permettant d’optimiser le choix des sommets à déplacer, et conduisant à des partitions de déséquilibre inférieur en moyenne aux méthodes existantes. Nous décrivons la plate-forme d’expérimentation, appelée Crack, que nous avons conçue afin de comparer les différents algorithmes étudiés. Ces comparaisons sont effectuées en partitionnant un ensembles d’instances comprenant un cas industriel et plusieurs cas fictifs. Nous proposons une méthode de génération de cas réalistes de simulations de type « transport de particules ». Nos résultats démontrent la nécessité de restreindre les poids des sommets lors de la phase de contraction de la méthode multi-niveaux. En outre, nous mettons en évidence l’influence de la stratégie d’ordonnancement des sommets, dépendante de la topologie du graphe, sur l’efficacité de l’algorithme d’appariement « Heavy-Edge Matching » dans cette même phase. Les différents algorithmes que nous étudions sont implantés dans un outil de partitionnement libre appelé Scotch. Au cours de nos expériences, Scotch et Crack renvoient une partition équilibrée à chaque exécution, là où MeTiS, l’outil le plus utilisé actuellement, échoue une grande partie du temps. Qui plus est, la coupe des solutions renvoyées par Scotch et Crack est équivalente ou meilleure que celle renvoyée par MeTiS. / Multiphysics simulation couple several computation phases. When they are run in parallel on memory-distributed architectures, minimizing the simulation time requires in most cases to balance the workload across computation units, for each computation phase. Moreover, the data distribution must minimize the induced communication. This problem can be modeled as a multi-criteria graph partitioning problem. We associate with each vertex of the graph a vector of weights, whose components, called “criteria”, model the workload of the vertex for each computation phase. The edges between vertices indicate data dependencies, and can be given a weight representing the communication volume transferred between the two vertices. The goal is to find a partition of the vertices that both balances the weights of each part for each criterion, and minimizes the “edgecut”, that is, the sum of the weights of the edges cut by the partition. The maximum allowed imbalance is provided by the user, and we search for a partition that minimizes the edgecut, among all the partitions whose imbalance for each criterion is smaller than this threshold. This problem being NP-Hard in the general case, this thesis aims at devising and implementing heuristics that allow us to compute efficiently such partitions. Indeed, existing tools often return partitions whose imbalance is higher than the prescribed tolerance. Our study of the solution space, that is, the set of all the partitions respecting the balance constraints, reveals that, in practice, this space is extremely large. Moreover, we prove in the mono-criterion case that a bound on the normalized vertex weights guarantees the existence of a solution, and the connectivity of the solution space. Based on these theoretical results, we propose improvements of the multilevel algorithm. Existing tools implement many variations of this algorithm. By studying their source code, we emphasize these variations and their consequences, in light of our analysis of the solution space. Furthermore, we define and implement two initial partitioning algorithms, focusing on returning a solution. From a potentially imbalanced partition, they successively move vertices from one part to another. The first algorithm performs any move that reduces the imbalance, while the second performs at each step the move reducing the most the imbalance. We present an original data structure that allows us to optimize the choice of the vertex to move, and leads to partitions of imbalance smaller on average than existing methods. We describe the experimentation framework, named Crack, that we implemented in order to compare the various algorithms at stake. This comparison is performed by partitioning a set of instances including an industrial test case, and several fictitious cases. We define a method for generating realistic weight distributions corresponding to “Particles-in-Cells”-like simulations. Our results demonstrate the necessity to coerce the vertex weights during the coarsening phase of the multilevel algorithm. Moreover, we evidence the impact of the vertex ordering, which should depend on the graph topology, on the efficiency of the “Heavy-Edge” matching scheme. The various algorithms that we consider are implemented in an open- source graph partitioning software called Scotch. In our experiments, Scotch and Crack returned a balanced partition for each execution, whereas MeTiS, the current most used partitioning tool, fails regularly. Additionally, the edgecut of the solutions returned by Scotch and Crack is equivalent or better than the edgecut of the solutions returned by MeTiS.
44

Influence des longueurs internes sur la tenue mécanique d'un film anti-rayure / Influence of internal lengths on the mechanical strength of a scratch-resistant film

Bourrel, Tristan 13 April 2017 (has links)
Notre connaissance des effets d'une rayure sur les surfaces polymères reste à approfondir. L'expérimentation donne des observations précieuses des phénomènes qui apparaissent durant la rayure, cependant, l'accès aux champs de contraintes et de déformations dans le matériau n'est pas possible, ce qui est pourtant un élément clé pour la prédiction de l'amorce des fissures.Nous utilisons un essai de rayure sur des matériaux transparents, qui permet la visualisation in situ des endommagements, des dimensions de la zone de contact et du frottement. Les endommagements, en termes de craquelures, fissurations et bandes de cisaillement sont identifiés sur trois polymères massifs (PMMA, CR39 & PC). En parallèle, nous utilisons la modélisation 3D par éléments finis pour étudier la réponse mécanique pendant la rayure de ces trois matériaux polymères, afin d’identifier des critères d'amorçage de fissures. Enfin, des systèmes revêtus sont étudiés et le délaminage et la fissuration du film sont discutés. Ces considérations font entrevoir les perspectives possibles en termes de pistes d'amélioration pour la protection des substrats par dépôt de films minces. / Our knowledge of scratch effects on polymeric surfaces is still limited. The experimental approach gives precious observations of phenomena which occur during scratching, however, it does not allow to get insight the stress distribution within the material, a key feature for crack initiation prediction.A scratch test is used on transparent materials, that allows to visualize in situ damages appearance, the dimension of the contact zone and friction. The damages, in terms of crazing, cracking and shear bands are identified on three bulk polymers (PMMA, CR39 & PC).In parallel, we use 3D finite element modelling to study the mechanical response during a scratch test on these three polymeric materials, in order to identify crack initiation criteria.Finally, coated systems are studied and delamination/cracking of thin films are discussed. These considerations point to possible prospects in terms of improvement paths for the protection of substrates by thin films coating.
45

L'identification du contrat administratif / The identification of administrative contract

Ferré, Robin 06 December 2016 (has links)
L’identification du contrat administratif est connue pour être une notion bâtie par la jurisprudence. Les critères d’identification de la notion ont été certes apportés par le Conseil d’État au début du XXe siècle, et la jurisprudence conserve encore aujourd’hui une importance indéniable dans la matière. La multiplication des qualifications légales, depuis le début du nouveau millénaire, pose cependant question. Il serait tentant de voir dans cet essor un bouleversement de la notion de contrat administratif. Ces changements auraient toutefois pour conséquence une perte de sens qui ne pourrait entraîner qu’une disparition à terme, voire paver la voie à une unification du contentieux des contrats, le contrat administratif ayant perdu toute spécificité. Or c’est cette spécificité qui justifie l’existence d’un corps de règle spécial – le régime du contrat administratif – et d’un juge spécial, le juge administratif. Envisager le problème en ces termes est tentant, mais ne reflète que partiellement la réalité. Il faut en effet rappeler que les qualifications légales sont très tôt intervenues dans la définition du contrat administratif, et qu’elles ont cohabité avec les critères tirés de la jurisprudence jusqu’à la période contemporaine. Malgré les apparences, c’est toujours le cas. Les qualifications légales les plus récentes n’ont pas remis en cause la spécificité du contrat administratif. Celui-ci est toujours identifié en fonction de sa nature particulière, et seul son champ d’application change. Critères jurisprudentiels et qualifications légales partagent en effet une même conception du contrat administratif, fondée sur la proximité avec l’intérêt général. Loin d’être affaiblie, la notion de contrat administratif révèle donc sa permanence. Seule recule de fait l’intervention de la jurisprudence en son sein, hormis dans l’application des textes. / The identification of administrative contract is known as a concept constructed by case law. The concept criteria were made by the Conseil d’État in the early twentieth century, and judicial authorities still retain an undeniable importance in the matter. The proliferation of legal qualifications, since the beginning of the new millennium however raises questions. It is tempting to see in this development a disruption of the concept of administrative contract. These changes, however, would result in a loss of direction which may result in an eventual disappearance, or even pave the way for unification of contractual disputes, administrative contract having lost all specificity. Yet it is this uniqueness that justifies the existence of a special rule body - the regime of administrative contract - and a special judge, the administrative judge. To consider the problem in these terms is tempting, but only partially reflects reality. It must be remembered that the legal qualifications were very early part in the formulation of administrative contract, and they cohabited with the criteria derived from case law to the contemporary period. Despite appearances, this is still the case. The most recent legal qualifications did not question the specificity of administrative contract. It is yet identified according to its special nature, and only its scope changes. Jurisprudential criteria and legal qualifications indeed share the same conception of administrative contract, based on the proximity to the public interest. Far from being weakened, the concept of administrative contract thus reveals its permanence. Only backs away the intervention of case law within it, except in the enforcement of written law.
46

L'incidence de l'Union économique et monétaire ouest africaine (UEMOA) sur les finances publiques de ses Etats membres / The impact of the West African Economic and Monetary Union (WAEMU) on the public finances of member States

Gueye, Thiamba 07 April 2011 (has links)
Le 10 janvier 1994, suite à l’échec des Politiques d’ajustement structurel proposées par les bailleurs de fonds extérieurs et à la dévaluation du Franc CFA qui en a suivi, a été signé, à Dakar, le Traité instituant l’Union Economique et Monétaire Ouest Africaine (UEMOA) par sept Etats : le Bénin, le Burkina Faso, la Côte d’Ivoire, le Mali, le Niger, le Sénégal et le Togo. Le 2 mai 1997, la Guinée Bissau deviendra le huitième Etat de l’Union. Ce Traité entérine la transformation de l’Union Monétaire Ouest Africaine, regroupant les anciennes colonies françaises ouest africaines partageant la même monnaie commune (le Franc CFA), en une union économique. Pour éviter de revivre la même situation qui a amené à dévaluer la monnaie commune, l’Union a décidé d’assainir les finances publiques des Etats membres, enmettant en place un cadre juridique approprié et une Surveillance Multilatérale de leurs politiques budgétaires. L’objectif des pères fondateurs était d’arriver,par cet arsenal juridique, à harmoniser les législations budgétaires et comptables nationales, mais aussi d’y instaurer une réelle discipline budgétaire en appui à la politique monétaire commune. Très vite, l’UEMOA se dotera de deux directives clés portant respectivement Lois de finances et Règlement général sur la comptabilité publique, mais également d’un Pacte de convergence et d’un Code de transparence dans la gestion des finances publiques. Comparée à la situation antérieure, on a noté une nette amélioration dans la gestion des finances publiques au sein de l’Union, même si tous les Etats n’avancent pas au rythme dans le respect des critères de convergence, surtout concernant la réduction des déficits publics. C’est ainsi que, l’UEMOA, avec le soutien des bailleurs de fonds multilatéraux (FMI et Banque mondiale) qui cherchent à promouvoir dans les pays où ils interviennent de nouveaux outils financiers (Gestion axée sur la performance, Pluriannualité dans la programmation budgétaire, etc.…), va réformer, en 2009, son cadre juridique des finances publiques afin de l’adapter aux nouveaux standards de gestion internationaux. / January 10, 1994, following the failure of structural adjustment policies proposedby the external donors and the devaluation of the CFA Franc which followed, was signedin Dakar, the Treaty establishing the West African Economic and Monetary Union byseven countries: Benin, Burkina Faso, Côte d'Ivoire, Mali, Niger, Senegal and Togo. OnMay 2, 1997, Guinea Bissau will become the eighth State of the Union. The Treatyconfirms the transformation of the West African Monetary Union, comprising the formerFrench colonies in West Africa share the same common currency (the CFA), in aneconomic union. To avoid repeating the same situation that led him to devalue thecurrency, the West Africa has decided to consolidate public finances of Member States,by establishing an appropriate legal framework and multilateral surveillance of fiscalpolicies. The objective of the founding fathers was to arrive by this legal arsenal,harmonize national budget and accounting laws, but also to establish a real fiscaldiscipline in support of the common monetary policy. Soon, WAEMU will develop two keydirectives dealing respectively Finance Laws and the General Public Accounting, but alsoa Pact of convergence and a code of transparency in the management of public finances.Compared to the previous situation, there was a marked improvement in the managementof public finances in the EU, even if all states are not moving at the pace in compliancewith the convergence criteria, especially regarding the reduction of deficits public. Thus,UEMOA, with support from multilateral donors (IMF and World Bank) seeking to promotein the countries where they operate a new financial tools (performance-basedmanagement, the multiannual budgetary planning etc ....), will reform in 2009, its legalframework of public finance in order to adapt to new international management standards.
47

Critères de jugement dans les essais contrôlés randomisés en réanimation / Outcomes in randomized controlled trials in critically ill patients

Gaudry, Stéphane 28 November 2016 (has links)
Le choix des critères de jugement (principal et secondaires) est une étape essentielle de la construction d’un essai contrôlé randomisé. Notre premier travail a été de réaliser une revue systématique sur la place des critères de jugement importants pour les patients ou patient-important outcomes dans les essais contrôlés randomisés en réanimation. Nous avons défini les patient-imortant outcomes comme étant la mortalité d’une part, et l’impact fonctionnel et sur la qualité de vie des séquelles de la réanimation d’autre part. En effet, en réanimation, les deux objectifs thérapeutiques principaux sont d’une part éviter le décès des patients et d’autre part réduire l’impact des séquelles à moyen et long terme chez les survivants. Nous avons montré que les patient-imortant outcomes ne représentent qu’une proportion faible (27/112, 24%) des critères de jugement principaux des essais publiés en 2013 et que pour une grande majorité il s’agissait d’un critère de mortalité. Une analyse sur les essais publiés au premier semestre 2016 a montré qu’il n’y avait pas eu d’évolution (25% des critères de jugement principaux étaient des patient-important outcomes).Puis, en réalisant une étude ancillaire de cette revue systématique, nous avons investigué l’impact potentiel des décisions de limitation(s) ou d’arrêt(s) des thérapeutiques actives quand le critère de jugement était la mortalité, et décrit les données rapportées sur ces limitation(s) ou d’arrêt(s) des thérapeutiques actives dans les essais en réanimation. Nous avons montré que très peu d’essais contrôlés randomisés en réanimation (6/65, 9%) rapportaient le taux de décision de limitation(s)ou d’arrêt(s) des thérapeutiques actives, bien que ces décisions soient fréquentes en pratique clinique. Pour explorer l’impact qu’un déséquilibre de ces décisions entre les 2 bras d’un essai pouvait avoir en termes de biais sur la mortalité, nous avons réalisé une étude de simulation. Cette étude a montré notamment que lorsque ces décisions étaient prises de façon plus tardive dans le groupe expérimental, l’intervention pouvait apparaître protectrice alors même qu’il n’existait pas de réel effet sur la survie. Enfin, nous avons conduit un essai contrôlé randomisé en réanimation (étude AKIKI, Artificial Kidney Initiation in Kidney Injury) en utilisant la mortalité comme critère de jugement principal et en rapportant le taux et le délai des décisions de limitation(s) ou d’arrêt(s) des thérapeutiques actives dans les 2 bras / The choice of relevant primary and secondary endpoints is an essential step of the design of a randomized controlled trial. In our first work, we conducted a systematic review on patient-important outcomes in randomized controlled trials in critically ill patients. Indeed, clinical decision-making by ICU physicians now pursues the goal of improving mean and long-term outcomes in survivors in addition to increasing their chance of survival. We defined patient-important outcomes as on one hand, outcomes involving mortality at any time, and on the other, quality of life and functional outcomes assessed after ICU discharge. We found that a minority of primary outcomes (27/112,24%) used in randomized controlled trials published in 2013, were patient-important outcomes and that mortality accounted for the vast majority of them. Our analysis of most recently published trials (first half 2016) showed that patient-important outcomes were used in the samelow proportions (25% of the primary outcomes were patient-important outcomes) We then addressed the question of how well withholding and with drawal of life support therapies(W-WLST) decisions were reported in RCT in critically ill patients and how such decisions could impact mortality as outcome measure in these trials. We found that W-WLST decisions, although being a daily concern in routine practice, were scarcely reported in these trials, since they appeared in only 6 of 65 (9%) during follow-up. We further explored the impact of an imbalance in such decisions between the 2 arms of a randomized controlled trial, through a simulation study. This simulation showed that the intervention could appear as protective, if the decision of W-WLST was delayed in the interventional arm, even though the intervention had no true effecton survival. Finally, we performed a randomized controlled study (Artificial Kidney Initiation in Kidney Injury,AKIKI) using mortality as primary outcome and paid attention to report the rate of W-WLSTdecisions in the 2 arms.
48

Analyse des échelles d'évaluation des pathologies de l'épaule

Renaud, Éric 03 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal. / Nous avons procédé à une évaluation clinique et clinimétrique des différentes échelles d'évaluation des pathologies de l'épaule repérées dans la littérature médicale. Sur la base de leur fréquence d'utilisation, nous avons retenu six formules d'évaluation qui ont recours à des systèmes de pointage et nous les avons analysées à l'aide de critères objectifs, cliniques et clinimétriques. La première analyse est basée sur quatre critères cliniques, soit la douleur, la fonction, l'amplitude de mouvement et la force. Nous avons repris l'analyse de ces échelles en ne retenant que la douleur et la fonction puisque ces deux éléments, sur le plan clinique, constituent les principaux indicateurs de la réussite du traitement ou de la satisfaction du patient quant à ce dernier. Finalement, chaque échelle a été revue à l'aide d'index clinimétriques. L'échelle suggérée par 1 ' American Elbow and Shoulder Society s'est révélée la meilleure pour évaluer les deux indicateurs cliniques principaux, à savoir la douleur et la fonction, suivie de l'échelle du Hospital for Special Surgery et de celle de Constant. Au point de vue clinimétrique, aucune échelle n'est apparue fiable, valable ou sensible à la réponse à un traitement. De plus, aucune des formules d'évaluation n'a répondu aux critères clinimétriques. Compte tenu que l'échelle de l'American Elbow and Shoulder Society a été conçue par un panel d'experts et qu'elle se rapproche le plus de l'exigence de nos critères, notamment les critères cliniques, nous croyons qu'elle est la plus prometteuse. Cette échelle, facile à utiliser et à intégrer à la réalité clinique, doit cependant se montrer fiable et être validée par des études cliniques afin de nous assurer de sa sensibilité à la réponse aux traitements prodigués. Cette démarche de validation en permettra l'utilisation plus généralisée afin d'uniformiser les mesures dans les études portant sur les pathologies de l'épaule.
49

Les critères de jugement centrés sur le patient dans les essais cliniques en oncologie thoracique / Patient-centered clinical endpoints in lung cancer trials

Fiteni, Frédéric 14 October 2016 (has links)
La Survie globale (SG) est le critère de jugement de référence dans les essais cliniques en oncologie mais les critères de jugement dit intennédiaires centrés sur la tumeur qui sont évalués plus précocement sont de plus en plus utilisés comme critères substitutifs de la survie globale La qualité de vie (QdV) constitue un critère de jugement pour évaluer un bénéfice clinique direct pour le patient. Nos résultats ont montré que 32% des critères de jugement dans les essais de phase III de CBNPC avancés étaient pas du tout définis et seulement 43% était clairement défini et qu'aucun critère intermédiaire n'a démontré sa substitutivité sur la SG. Nous avons montré que la mesure, l'analyse et le report des données de QdV étaient hétérogènes entre les essais de phase III de CBNPC avancés d'où la nécessité de recommandations. Nous avons comparé longitudinalement la QdV chez 451 patients âgés de 70-89 ans atteints de CBNPC avancés randomisés entre une bichimiothérapie et une monochimiothérapie selon la technique du temps jusqu'à détérioration définitive (TJD) d'un score de QdV. Cette étude a montré : sur le plan clinique, le bénéfice du doublet de chimiothérapie pour les patients est renforcé par les données de QdV; sur le plan méthodologique: le TJD est une technique d'analyse faisable dans les essais de phase III de CBNPC et fournit des résultats faciles d'interprétation. Nous avons proposé l'utilisation de co-critères de jugement principaux associant QdV et critère centré sur la tumeur. Enfin, nous avons démontré la valeur pronostique de la dimension santé globale de QdV à baseline du questionnaire sur la SG chez les patients âgés atteints de CBNPC avancés. / Overall survival (OS) is the gold standard endpoint in oncology clinical trials. Nevertheless, intermediate tumor-centered endpoints which are assessed earlier are more and more used as surrogate of OS. Health-related quality of life is an endpoint which assesses a direct benefit for the patient. We demonstrated that 32% of endpoints in advanced non-small-cell lung phase III clinical trials were not defined at all, 43% were not clearly defined and none ofthem has demonstrated its surrogacy on OS. We demonstrated the weakness and the heterogeneity of the measurement, analysis, and reporting of HRQoL in phase III advanced NSCLC trials. Precise and uniform recommendations are needed. We longitudinally compared HRQoL using tüne until definitive deterioration (TUDD) method in 451 patients aged 70-89 years with advanced NSCLC randomly assigned to receive a doublet of chemotherapy or a monochemotherapy. We demonstrated the benefit of the doublet chemotherapy in terms ofHRQoL. On a methodological point ofview TUDD method is feasible and provide clinically meaningful results. We proposed another approach which would be to combine intermediate endpoint• with HRQoL as co-primary endpoints. Finally, we demonstrated the additional prognostic value of HRQoL data at baseline to identify vulnerable subpopulations in elderly NSCLC patients.
50

Elaboration, validation et application de la grille de critères de persuasion interactive

Alexandra, Nemery 19 January 2012 (has links) (PDF)
Les concepteurs d'interfaces ont un besoin sans cesse évoluant d'influencer les utilisateurs. Dans n'importe quel domaine, de la vente à l'écologie en passant par l'éducation, les interfaces se font de plus en plus intelligentes, adaptatives et interactives afin d'inciter les individus à modifier leur attitude, voire leur comportement. Si l'inspection ergonomique et l'utilisabilité sont depuis longtemps prises en compte durant les phases d'évaluation ou de conception d'un produit, il s'avère que la dimension persuasive des technologies n'est pas encore reconnue. Or, cet aspect d'influence dans les médias représente un champ émergent ayant déjà fait ses preuves au cours de nombreuses recherches dans des domaines variés. Il fait partie intégrante de l'expérience utilisateur. Face à l'absence d'outil validé dans ce domaine, une grille de critères a été créée pour répondre à ce besoin des concepteurs, des évaluateurs mais également des utilisateurs. Suite à la revue de cent soixante quatre articles portant sur le domaine de la captologie, une grille de huit critères a été élaborée comprenant : crédibilité, privacité, personnalisation, attractivité, sollicitation, accompagnement initial, engagement et emprise. Cette grille dégage également vingt-trois sous-critères. Elle distingue la dimension statique, soit l'ensemble des qualités qu'une interface devrait posséder pour être propice à la mise en place d'une boucle dite engageante, aussi appelée dimension dynamique. Cette grille a suivi une méthode inductive et est basée sur un processus de conception itératif prenant en compte l'avis d'experts en IHM et en ergonomie. Suite à différents pré-tests et à sa stabilisation, cet outil a été testé auprès de trente experts en ergonomie afin de procéder à sa validation. Une expérience basée sur une tâche d'identification d'éléments dits persuasifs dans quinze interfaces a été mise en place. L'utilisation de la grille a montré qu'elle aidait les experts à identifier 78,8% des éléments persuasifs présents. Avec un score de Kappa de 0.76, un accord inter-juge fort a été démontré. Suite à cette validation en laboratoire, une expérience réelle visant à montrer son opérationnalisation et à tester son efficacité sur le terrain a été menée. Après un premier usage comme outil d'évaluation, la grille a été utilisée comme aide à la conception d'interfaces plus influentes. Appliquée dans le cadre d'un sondage entreprise en ligne annuel, la grille de critères a permis de passer de 25% à 41% de répondants sur une population de 897 salariés. Enfin, l'application de cet outil dans le domaine de l'informatique décisionnelle et des progiciels de gestion intégrée présente des spécificités. Un travail d'aménagement de deux outils a permis d'élaborer une réflexion sur les éléments de la persuasion interactive propres à l'informatique décisionnelle.

Page generated in 0.0587 seconds