• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1047
  • 336
  • 83
  • 14
  • 2
  • 1
  • Tagged with
  • 1516
  • 679
  • 521
  • 337
  • 308
  • 301
  • 180
  • 169
  • 163
  • 160
  • 150
  • 148
  • 146
  • 141
  • 133
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Organisation, stratégies et décisions: analyse de processus décisionnels dans une entreprise de distribution

Rozencweig, Nadine January 1981 (has links)
Doctorat en sciences sociales, politiques et économiques / info:eu-repo/semantics/nonPublished
42

Un modèle pour la prise de décision multi-agent sous incertitude stricte / A model for multiagent decision making under strict uncertainty

Ben Larbi, Ramzi 14 December 2009 (has links)
Le contexte informationnel dans lequel évolue un agent possède une importance extrême quandcelui-ci élabore son comportement futur. Un agent rationnel doit en effet baser ses choix sur les informationsqu’il possède pour choisir ses actions. Or, dans les applications réelles, l’information disponible àl’agent est souvent rare et peu précise. De multiples modèles ont été élaborés dans les différents cadresd’application de l’intelligence artificielle afin de caractériser une décision rationnelle dans chacun descontextes informationnels possibles. Les travaux présentés dans cette thèse concernent l’élaboration d’unmodèle permettant à un agent de prendre des décisions rationnelles dans un contexte informationnel trèspauvre. La seule information dont dispose un agent à propos du résultat de ses actions est la donnée del’ensemble de résultats de chacune d’entre elles. En particulier, aucune information sur la conséquence laplus susceptible de se produire n’est disponible. L’agent est supposé égoïste (au sens où seul compte pourlui son propre intérêt) et autonome. Il évolue de plus dans un environnement où il coexiste avec d’autresagents (qui sont aussi égoïstes et autonomes). Les actions d’un agent influent sur les autres agents. Ladémarche entreprise pour élaborer le modèle est la suivante. D’abord, nous caractérisons les critères dedécision rationnels d’un agent seul dans le contexte informatif étudié. Ensuite, nous étendons ces critèresde décision individuelle au cas multi-agent en nous appuyant sur la théorie des jeux qui est le meilleurcadre pour exprimer les interactions entre agents rationnels et en particulier les possibilités de coordinationentre les agents. Enfin, le domaine de la planification est un excellent cadre pour représenter etexprimer les concepts du modèle. / The informative context in which an agent evolves is extremely important when she elaborates her futurebehaviour. A rational agent must base her choices on the available information. In realistic applications,the information is often rare and imprecise. Many models have been introduced to caracterize rationaldecision in each possible informative context. This thesis is about the elaboration of a model that allowsan agent to make rational decisions in an extremely poor informative context. The only informationthat is available to an agent about her actions’ consequences is the result set of each of her actions. Noinformation about which consequence of any action will eventually happen is available. The agent issupposed to be selfish (which means that her own interest is her only concern) and autonomous. Sheevolves in an environment in which she coexists with other agents (that are as selfish and autonomous asher). An agent action may inflence those of other agents. We used the following approach to build ourmodel. First, we caracterized the rational decision criteria for an agent to use in the context of completeignorance. Then we extended these criteria, by using game theory concepts, to a multiagent environment.Finally, the planning framework is an excellent framework to represent the introduced concepts.
43

Utilisation des ontologies dans le contexte de l’Imagerie par Résonance Magnétique / Using ontologies in Magnetic resonance imaging

Lasbleiz, Jérémy 19 December 2013 (has links)
L’imagerie médicale et en particulier l’Imagerie par Résonance Magnétique (IRM) occupe une place de choix dans les décisions médicales. Malgré des techniques et des pratiques d’examens comparables les industriels du secteur utilisent un vocabulaire différent pour décrire les événements de l’expérience IRM. Les ontologies permettent de résoudre cette problématique. En les intégrant dans un système informatique nous avons choisi de proposer des solutions innovantes pour trois situations quotidiennes : l’annotation d’examen, la reconnaissance et la correction d’artéfact et l’aide à la prescription d’examen. Les connaissances du domaine IRM sont issues de la littérature et de la pratique quotidienne. DICOM, élément incontournable à l’échange de données en imagerie médicale, a été le point de départ de l’élaboration de l’ontologie. Les connaissances sur les artéfacts en IRM sont en partie issues d’une collaboration avec l’université de Texas A&M Temple. Pour l’aide à la prescription d’examen nous avons choisi une situation clinique représentative la demande d’IRM dans le cadre des traumatismes du genou. Les statistiques proviennent d’une étude réalisée dans le service de médecine du sport du CHU de Rennes. Les systèmes élaborés permettent aux utilisateurs d’utiliser les ontologies sans y être confronté et permettent l’analyse de l’entête DICOM d’une image, l’annotation de l’image, la comparaison d’une image IRM pour la correction d’artéfact et l’aide à la prescription d’IRM est sous la forme d’un serveur web permettant à l’utilisateur de connaître en fonction des signes cliniques présents, la probabilité d’avoir une lésion lors de la réalisation de l’IRM. Nous avons démontré la possibilité d’utilisation des ontologies pour améliorer l’exercice quotidien des praticiens. Les techniques utilisées montre la possibilité d’utiliser les ontologies en les associant aux images et aux probabilités. Le système choisi, interface permettra l’évolution vers une technologie de type webservice. / Magnetic resonance imaging (MRI) is a key examination in medical decision making. Despite MRI technics are slightly similar, each industrial has developed his own vocabulary to describe the MRI experience. Ontologies have been developed to help in such situations. We have decided to create IT solutions using ontology for three daily radiological situations: exams annotation, MRI artifacts recognition and correction and exam appropriateness. The domain knowledge is extracted from literature and everyday practice. DICOM, as key element for data exchange in radiology, has been used to create the ontology.  Concerning MRI artifacts, a part of the knowledge comes from a collaborative work with the university of Texas A&M Temple. Concerning exam appropriateness, we have chosen a representative clinical situation: interest of knee MRI in case of knee trauma. The statistical data are coming from a clinical study done in the CHU of Rennes. Our systems allow users to take benefits of ontology without facing it. They give a DICOM header analysis, proposed an image annotation, compare image to correct MRI artifacts and help physicians to judge MRI appropriateness in case of knee trauma. We have demonstrated that ontologies could be used to improve daily practice in radiology and that ontologies could be associated to image and statistical data. Future of this work could be a system transformation into a web service.
44

Analyse de stratégies de triage en forêt pour une chaîne de valeur forestière efficiente

Baccouche, Mohamed Dhia Eddine 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 5 septembre 2023) / L'industrie forestière canadienne joue un rôle majeur dans l'économie du pays et les forêts canadiennes représentent une source importante de bois à l'échelle mondiale. Dans ce contexte, le triage et le transport du bois revêtent une grande importance pour assurer le bon fonctionnement de la chaîne de valeur forestière. Ce projet de recherche vise à explorer différentes stratégies de triage dans les secteurs forestiers, dans le but de mieux coordonner l'approvisionnement en bois avec les besoins spécifiques des usines de transformation. Pour atteindre cet objectif, nous avons développé un modèle d'optimisation basé sur la programmation mathématique, en plus d'un outil de traitement de données permettant de traiter les données reçues de notre partenaire industriel et de former des fichiers de données pour alimenter notre modèle d'optimisation. Ce modèle permet d'évaluer la rentabilité des différentes stratégies de triage pour fournir par la suite la meilleurs distribution des méthodes de triage dans les zones de récolte forestière. Des expérimentations ont été menées en prenant en compte différents paramètres comme le nombre et le type de piles de bois formées en forêt. Notre étude a permis de mettre sur pied un modèle d'aide à la prise de décision qui facilite le choix des méthodes de triage à utiliser en forêt. Ce modèle prend en compte plusieurs facteurs, dont les types de piles pouvant être formées en forêt, la demande des usines, les distances de transport forêt-usines et les distances inter-usines. Cette recherche constitue donc une contribution intéressante dans le domaine de l'optimisation du triage et du transport du bois, en fournissant une méthodologie solide, un outil de traitement de données et un modèle d'optimisation précis. / The Canadian forest industry plays a significant role in the country's economy, while Canadian forests represent a major source of timber. In this context, wood sorting and transportation are of great importance to ensure the smooth functioning of the forest value chain. This research project aims to explore different sorting strategies in forest sectors in order to better coordinate wood supply with the specific needs of processing mills. To achieve this goal, we developed an optimization model based on mathematical programming, along with a data processing tool to exploit the data received from our industrial partner. This model allows for evaluating the profitability of different sorting strategies to subsequently provide the best distribution of sorting methods in forest harvesting areas. Experiments were conducted, taking into account various parameters such as the number and type of wood piles formed in the forest. Our study has resulted in the development of a decision-making tool that facilitates the selection of sorting methods to be used in the forest. This model takes into consideration several factors, including the types of piles that can be formed in the forest, the demand from mills, the distances for forest-to-mill and inter-mill wood transportation. This research contributes to the field of wood sorting and transportation optimization by providing a robust methodology, a data processing tool, and an accurate optimization model.
45

Intervention basée sur une approche interprofessionnelle de prise de décision partagée dans Ie contexte des soins à domicile d'aînés en perte d'autonomie

Adekpedjou, Rheda 25 January 2021 (has links)
No description available.
46

On the generalization properties of VC classes and application to decision trees

Leboeuf, Jean-Samuel 13 December 2023 (has links)
Titre de l'écran-titre (visionné le 27 février 2023) / La théorie « Vapnik-Chervonenkis » (VC) est un sous-domaine de la théorie de l'apprentissage automatique qui offre un moyen de comprendre la notion de généralisation d'un algorithme d'apprentissage en bornant le taux d'erreur des prédicteurs par l'utilisation d'outils combinatoires, tels que la dimension VC et la fonction de croissance. Bien que des pistes de recherche récentes indiquent que la théorie VC n'est pas le bon cadre pour comprendre la généralisation dans les réseaux de neurones profonds (Zhang et al., 2021), elle reste pertinente pour les modèles interprétables basés sur des décisions à seuil ferme, comme les arbres de décision et les formules booléennes. Pourtant, les bornes de généralisation pour les classes VC n'ont pas connu d'améliorations substantielles depuis près d'une décennie, et les propriétés combinatoires des arbres de décision, nécessaires à l'application de ces bornes, sont encore mal comprises. Dans cette thèse, nous abordons ces deux problèmes de deux manières distinctes, présentées en deux parties différentes. Dans la première partie, nous améliorons significativement les bornes de généralisation pour les classes VC à l'aide de deux idées majeures. Premièrement, nous évitons d'utiliser les inégalités de concentration en inversant la queue de l'hypergéométrique pour obtenir une borne supérieure non-uniforme, très serrée et indépendante de la distribution, sur le risque pour les classes VC. Ensuite, l'utilisation de l'inversion de la queue de l'hypergéométrique permet d'optimiser l'astuce de l'échantillon fantôme pour obtenir des gains supplémentaires non négligeables. Ces améliorations sont ensuite utilisées pour dériver une borne de déviation relative, une borne pour les classificateurs multiclasses à marge, ainsi qu'une borne inférieure. Dans nos dérivations, nous prenons soin d'introduire aussi peu d'approximations que possible afin de réduire au minimum les facteurs constants de la borne. Des comparaisons numériques montrent que la nouvelle borne est presque toujours informative et qu'elle est plus serrée que toute autre borne VC courante pour toutes des tailles raisonnables de jeux de données. Ensuite, dans la deuxième partie, nous revisitons les arbres de décision binaires du point de vue des partitions des données. Nous introduisons la notion de fonction de partitionnement, et nous la relions à la fonction de croissance et à la dimension VC. Nous considérons trois types d'attributs : à valeur réelle, catégorique ordinale et catégorique nominale, chacune avec des règles de décision différentes. Pour chaque type d'attribut, nous bornons supérieurement la fonction de partitionnement des souches de décision avant d'étendre les bornes aux arbres de décision généraux (avec n'importe quelle structure fixe) en utilisant une approche récursive. Parmi les nouveaux résultats les plus notables, nous obtenons que la dimension VC exacte des souches de décision sur des exemples de *ℓ* attributs à valeurs réelles est donnée par le plus grand entier *d* tel que $2\ell\geq \bigl(\begin{smallmatrix} d \\\left \lfloor \frac{d}{2}\right \rfloor \end{smallmatrix}\bigr)$. De plus, nous montrons que la dimension VC d'une structure d'arbre binaire avec $L_T$ feuilles sur des exemples de *ℓ* attributs à valeurs réelles est de l'ordre de $\mathscr{O}(L_T\,log(L_T\ell))$. Enfin, nous élaborons un algorithme d'élagage basé sur ces résultats qui surpasse les populaires algorithmes d'élagage *cost-complexity* (C4.5) et *reduced-error* (ID3) sur de nombreux jeux de données, avec l'avantage qu'aucune validation croisée n'est nécessaire. / Vapnik-Chervonenkis (VC) theory is a subfield of theoretical machine learning that offers a way to understand the notion of generalization of a learning algorithm by bounding the error rate of predictors through the use of combinatorial tools, such as the VC dimension and the growth function. Although recent research avenues indicate that VC theory is not the right framework to understand generalization in deep neural networks (Zhang et al., 2021), it is still relevant for interpretable models based on hard threshold decisions, such as decision trees and Boolean formulas. Yet, generalization bounds for VC classes have not seen any substantial improvement for nearly a decade now, and the combinatorial properties of decision trees, needed for these bounds to apply, are still poorly understood. In this thesis, we tackle both of these problems in two distinct ways, presented in two different parts. In the first part, we significantly improve the generalization bounds for VC classes by using two main ideas. First, we avoid making use of concentration inequalities by considering the hypergeometric tail inversion to obtain a very tight non-uniform distribution-independent risk upper bound for VC classes. Second, the use of the hypergeometric tail inversion allows us to optimize the ghost sample trick to procure further non-negligible gains. These improvements are then used to derive a relative deviation bound, a multiclass margin bound, as well as a lower bound. In our derivations, we are careful to introduce as few approximations as possible in order to bring to a minimum the constant factors of the bounds. Numerical comparisons show that the new bound is nearly never vacuous and is tighter than other common VC bounds for all reasonable data set sizes. Then, in the second part, we revisit binary decision trees from the perspective of partitions of the data. We introduce the notion of partitioning function, and we relate it to the growth function and to the VC dimension. We consider three types of features: real-valued, categorical ordinal and categorical nominal, all with different split rules. For each feature type, we upper bound the partitioning function of the class of decision stumps before extending the bounds to the class of general decision tree (of any fixed structure) using a recursive approach. Amongst the most notable new results, we find that the exact VC dimension of decision stumps on examples of *ℓ* real-valued features is given by the largest integer *d* such that $2\ell\geq \bigl(\begin{smallmatrix} d \\\left \lfloor d\over2\right \rfloor \end{smallmatrix}\bigr)$. Furthermore, we show that the VC dimension of a binary tree structure with $L_T$ leaves on examples of *ℓ* real-valued features is of order $(L_T\,log(L_T\ell))$). Finally, we elaborate a pruning algorithm based on these results that outperforms cost-complexity (C4.5) and reduced-error pruning algorithms on a number of data sets, with the advantage that no cross-validation is required.
47

Planning models for a multi-product, multi-site reforestation value chain

Mousavijad, Mahtabalsadat 13 December 2023 (has links)
Thèse ou mémoire avec insertion d'articles. / Avec la nature critique des défis environnementaux tels que le changement climatique et les émissions de CO2, le rôle du reboisement comme moyen de surmonter ces difficultés a reçu plus d'attention. Afin d'atteindre les objectifs des efforts de reboisement, il est nécessaire de développer des outils d'aide à la décision. L'objectif principal de cette thèse est d'améliorer la performance de la chaîne de valeur du reboisement en proposant des outils et des méthodes de planification d'une chaîne multi-produit et multi-site. Trois objectifs spécifiques ont été définis en support à l'objectif principal. Le premier objectif était de fournir un cadre formel pour la chaîne de valeur du reboisement (CVR) afin d'améliorer la compréhension de l'ensemble de la CVR; ses processus et les modèles de planification d'optimisation potentiels qui pourraient améliorer la performance de la chaîne de valeur. À cet égard, une analyse herméneutique de la littérature a été effectuée et un cadre formel pour la CVR a été fourni, qui tient compte des niveaux de planification stratégique, tactique et opérationnel pour accroître la collaboration entre les intervenants. Des opportunités de modélisation ont également été proposées pour mettre en évidence les besoins et tendances futures pouvant interpeler les scientifiques et les décideurs. Le deuxième objectif était de fournir un modèle de planification de l'allocation des semences dans le contexte d'une production sur commande (make-to-order) pour une chaîne de valeur collaborative de reboisement. Ce modèle a été utilisé pour analyser la chaîne de valeur du reboisement au Québec comprenant un centre de semences, 18 pépinières et des centaines de sites de reboisement. Lors de la résolution du modèle, les résultats ont montré qu'il était possible d'augmenter le succès du reboisement en allouant des semences compatibles aux sites de mise en terre et d'équilibrer les stocks de semences pour satisfaire les demandes entrantes. Pour le troisième objectif, un outil d'aide à la décision visant à améliorer la planification intégrée de la production et du transport a été développé. L'idée était de déterminer quels lots de semences devaient être produits par quelles pépinières afin de satisfaire l'attribution des lots de semences prédéfinie (second objectif). Le modèle a testé 10 scénarios différents pour déterminer les capacités contractuelles des pépinières, offrir un aperçu de l'impact de la durabilité sur le système et pour guider la prise de décisions liées aux investissements en infrastructures de production. / With the critical nature of environmental issues such as climate change and CO2 emissions, the role of reforestation as a way to overcome these challenges has received more attention. In order to achieve the reforestation objective, developing decision-making tools are required. The main objective of this thesis is to enhance the performance of reforestation value chains by proposing tools and methods for planning a multi-product, multi-site chain. To achieve this, three specific objectives were defined. The first objective was to provide a formal framework for the RVC to improve mutual understanding throughout the reforestation value chain, its processes, and the potential optimization planning models which could improve the value chain performance. In this regard, a hermeneutic literature review was conducted and a formal framework for the RVC provided, which considers strategic, tactical, and operational planning levels to increase collaboration among stakeholders. Modeling opportunities were also proposed to highlight future trends for scientists and policy makers. The second objective was to provide a seed allocation planning model in the context of a make-to-order collaborative reforestation value chain. This model was used to analyze the Quebec reforestation value chain comprising one seed center, 18 nurseries, and hundreds reforestation sites. When solving the model, results showed that it was possible to increase reforestation success by allocating compatible seeds to sites and to balance seed inventories to satisfy incoming demands. In the third objective, a decision-making tool to improve integrated production and transportation planning was developed. The idea was to determine which seed lots should be produced by which nurseries so as to satisfy the seed los allocation defined during the second objective. The model tested 10 different scenarios to determine contractual capacities of nurseries, to provide an overview of the impact of sustainability on the system, and to help in making decisions related to investment in infrastructure.
48

La fraction amino-terminale du peptide natriurétique de type B pour prédire le devenir des patients ayant une sténose aortique à bas débit : sa supériorité au peptide natriurétique de type B et son rôle pour aider la décision thérapeutique

Annabi, Mohamed Salah 25 January 2019 (has links)
La stratégie thérapeutique actuelle pour la sténose aortique à bas débit (SA-BD) n’intègre pas la gradation de la sévérité de la maladie du ventricule gauche (SMVG) pour sélectionner les meilleurs candidats au remplacement valvulaire aortique (RVA). MÉTHODE La SMVG a été gradée par le ratio d’activation du peptide natriurétique de type-B (BNP-ratio) et par celui de la fraction N-terminale de son précurseur (NT-proBNP-ratio). Leurs performances pronostiques ont été étudiées séparément puis en comparaison directe (sous-population avec les deux biomarqueurs). Le meilleur biomarqueur a été utilisé pour étudier le bénéfice cardiovasculaire du RVA en fonction de la SMVG. RÉSULTATS Le NT-proBNP-ratio prédisait la mortalité à 12 et 36 mois avec une aire sous la courbe d’efficacité du récepteur (ASCER) à 0.67±0.04 et 0.66±0.05, respectivement (p=0.001). Il a été indépendamment corrélé à la mortalité (risque relatif ajusté [RRa]=1.39, [1.11-1.74], p=0.004). Le BNP-ratio était significativement discriminant pour la mortalité à 12 mois seulement et tendait à prédire le temps au décès en utilisant un seuil>7.4 (RRa=2.14 [1.00- 4.58], p=0.05). La supériorité du NT-proBNP-ratio a été vérifiée en comparaison directe: i) les ASCER pour la mortalité à 12 et 36 mois étaient supérieures (p<0.009); ii) le NT-proBNP-ratio, contrairement au BNP-ratio, prédisait indépendamment la mortalité; iii) il améliorait significativement l’efficacité prédictive d’un modèle de base (Mb) incluant l’âge, le sexe, la présence de SA réellement sévère (SARS), l’euroSCORE et le RVA (p=0.0003); iv) l’index de reclassification nette associé au NT-proBNP-ratio était de 0.71 (p=0.008) contre 0.38 (p=0.15) pour le BNP-ratio. Enfin, le NTproBNP-ratio>11 prédisait un grand bénéfice de survie par RVA (RRa=0.52 [0.31-0.85], p=0.009), tandis qu’avec NT-proBNP-ratio<11, la survie était excellente sans RVA durant la première année. CONCLUSION: Cette étude démontre pour la première fois que la gradation de la SMVG par le NT-proBNP-ratio, et pas le BNPratio, a une grande valeur pronostique dans la SA-BD et peut guider la stratégie thérapeutique / Background: In classical low-flow, low gradient aortic stenosis (CLF-AS i.e. with low left ventricular [LV] ejection fraction), aortic valve intervention (AVI) is recommended if true severe AS (TSAS) is confirmed. However, there is little evidence on the prognostic values of the clinical activation ratio of B-type natriuretic peptide (BNP-ratio) versus aminoterminal-proBNP (NT-proBNP-ratio) as surrogates of LV impairment to risk-stratify the patients. Methods: BNP and NT-proBNP-ratios were calculated by dividing the actual serum level by the upper predicted value for age and sex. Their prognostic values were studied using receiver-operating characteristic (ROC) curves and Cox proportional hazards regression adjusting for TSAS, initial treatment (AVI or conservative management [ConsRx]), age, sex and the euroSCORE (model-1), and taking time to death as an endpoint. The survival benefit of AVI according to the degree of LV impairment was studied using the best biomarker. Results: BNP-ratio significantly predicted one-year (area under the ROC curve [AUC]) 0.62±0.04, p=0.026) but not three-year mortality, and a BNP-ratio>7.4 tended to predict time to death (adjusted HR=2.14 [1.00-4.58], p=0.05). NT-proBNP-ratio significantly predicted one and three-year mortality (AUC=0.67±0.04 and 0.66±0.05, both p=0.001), and independently predicted time to death (HR=1.39 /per one increment of LogNT-proBNP-ratio, [1.11-1.74], p=0.004). In a head-to-head comparison, the AUCs for one and three-year mortality were higher with NT-proBNP-ratio versus BNP-ratio (p<0.009). NT-proBNP-ratio but not BNP-ratio independently predicted mortality and significantly improved model-1 (Likelihood ratio test Chi2=15.953, p=0.0003). The category-free net reclassification index of NT-proBNP-ratio when added to model-1 was 0.71 (p=0.008) versus 0.38 (p=0.15) for BNP-ratio. Finally, in patients with NTproBNP-ratio >11 the adjusted HR of death associated with AVI was 0.52 ([0.31-0.85], p=0.009). On the other hand, NT-proBNP-ratio <11 identified patients (54% with peudosevere AS) in whom short-term event-free survival was excellent under conservative management. Conclusion: NT-proBNP-ratio is a powerful independent predictor of death and should be preferred over BNPratio to risk-stratify CLF-AS patients. The assessment of LV function impairment using NT-proBNP-ratio has important clinical implications and should be complementary to the determination of true AS severity.
49

Impact de l'intervention DÉCISION+2 sur l'intention des professionnels de la santé de s'engager dans la prise de décision partagée

Nadeau, Catherine 20 April 2018 (has links)
Cette étude a évalué l'impact de l'intervention DÉCISION+2 sur l'intention des professionnels de la santé de s'engager dans le processus de la prise de décision partagée. Elle avait également pour objectif d'identifier les déterminants de l'intention. Dans le cadre d'un essai clinique randomisé par grappe, 259 professionnels de la santé ont complété un questionnaire auto-administré avant l'intervention et 231 après celle-ci. Ce questionnaire était basé sur la théorie du comportement planifié (TCP) et mesurait l'intention de s'engager dans la prise de décision partagée ainsi que les déterminants de l'intention. Nous n'avons observé aucune différence significative entre le groupe témoin et expérimental sur l'intention. Cependant, tous les déterminants de la TCP étaient corrélés avec l'intention. La perception de contrôle était le déterminant le plus prédictif de l'intention. Ces résultats aideront les éducateurs et les décideurs politiques à développer des interventions plus efficaces afin d'implanter la prise de décision partagée dans les pratiques cliniques.
50

Avoir raison a posteriori : analyse d'erreurs commises dans la littérature (PAC-)bayésienne

Vignault, Louis-Philippe 01 October 2024 (has links)
Étant donné les progrès majeurs de l'intelligence artificielle (IA) au cours des dernières années, de plus en plus de domaines d'application adoptent les outils proposés par l'IA afin d'accomplir une multitude de tâches. Considérant l'importance de ces tâches dans des domaines comme la santé et l'énergie, il est nécessaire d'être en mesure de garantir le bon fonctionnement des algorithmes d'IA. Plusieurs résultats proposés dans la littérature visent à garantir la bonne performance de certains algorithmes. Toutefois, l'existence d'erreurs au sein de la littérature scientifique est inévitable dû aux milliers d'articles qui sont publiés chaque année. Bien que plusieurs de ces erreurs aient des conséquences mineures, certaines, en revanche, peuvent avoir un impact considérable sur l'état des connaissances scientifiques ainsi qu'en pratique. Par conséquent, il est important d'identifier et de comprendre ces erreurs dès qu'elles sont identifiées. Dans ce mémoire, nous abordons deux erreurs identifiées dans la littérature liée à l'usage de la statistique bayésienne dans une approche visant à identifier ces erreurs, comprendre leur nature tant au niveau de la théorique que de l'intuition et explorer les implications de ces erreurs pour la recherche en IA. La première erreur concerne l'optimalité $\mathcal{C}$-borne dans le cadre de la classification binaire. Nous parvenons à démontrer que pour des problèmes bruités, cette borne ne peut pas atteindre la valeur théorique optimale et utilisons cette analyse afin de démontrer théoriquement la meilleure valeur que peut produire cette borne selon le problème de classification. La seconde erreur concerne la garantie théorique de la convergence de l'algorithme ADD-GP-UCB dans le cadre de l'optimisation bayésienne. Bien que cette erreur ait été soulevée par le passé, celle-ci n'a jamais été proprement abordée dans la littérature. Nous parvenons ainsi à démontrer l'invalidité de la preuve tout en explicitant une multitude de raisonnements fallacieux identifiés dans la littérature concernant cet algorithme. / Given the significant progress of artificial intelligence (AI) in recent years, an increasing number of application domains are adopting AI tools to perform a multitude of tasks. Considering the importance of these tasks in areas such as health and energy, it is necessary to ensure the proper behavior of these AI algorithms. Several results proposed in the literature aim to guarantee the proper performance of certain algorithms. However, due to the thousands of articles published each year, errors in scientific literature are inevitable. Although many of these errors are of minor consequences, some can have a significant impact regarding general scientific knowledge as well as in practice. Therefore, it is important to address and understand these errors as soon as they are identified. In this paper, we address two errors identified in the literature related to the use of Bayesian statistics. Our approach aims to identify these errors, understand their nature both on a theoretical and an intuitive level, and explore their implications in the field of AI. The first error concerns the optimality of the $\mathcal{C}$-bound, a bound used in the context of binary classification. We demonstrate that in a noisy setting, this bound cannot reach an optimal value. Our analysis leads to the proof of the best value the $\mathcal{C}$-bound can achieve for a given classification problem. The second error concerns the convergence of the ADD-GP-UCB algorithm in the context of Bayesian optimization. Although this error has been raised in the past, it has never been properly addressed in the literature. We manage to demonstrate that the proposed proof is invalid while also shining light on a multitude of fallacious statements found in the literature concerning this algorithm.

Page generated in 0.047 seconds