11 |
Undo the math : Managerial and organizational cognition theoretical and practical implications of cross-cultural and cross-disciplinary semiotic gaps / Implications théoriques et pratiques des fossés sémiotiques entre disciplines ou cultures sur la cognition managériale et organisationnelleIdelson, Marc 14 September 2011 (has links)
Dans une étude critique, s'appuyant sur l'analyse aristotélicienne du langage (Aristote, 2000a; Benveniste, 1966), sur l'émergence historique de ce que (Crosby, 1997) appelle la mentalité pentamétrique de la société moderne, sur l'exposé anthropologique de (Jorion, 2009) de l'invention par l'Occident des concepts de Vérité et de Réalité (objective), et, s’inspirant, sur un plan plus limité, des incursions dans la pensée chinoise du philosophe helléniste Jullien (Jullien, 1995, 2009), il est démontré que les nombres, l'espace et le temps sont des constructions sociales sémiotiques ; et exposé que les méthodes philologiques, en révélant les fossés sémiotiques (Cruse, 2004; Lyon, 1995), apportent un éclairage absent des études multiculturelles traditionnelles (Hofstede, 1983; Maison, Hanges, Javidan, Dorfman, et Gupta, 2006). De là, sont mis en avant les bien-fondé de (a) l'exercice du doute de soi, de l'ouverture d'esprit, et de la capacité de désapprendre dans les contextes interculturels et interdisciplinaires, et de (b) la prise de conscience des fossés sémiotiques entre cultures et entre disciplines et leur impact sur la cognition des individus, des équipes, des groupes et des organisations. Ancré épistémologiquement dans la réfutabilité poppérienne (Popper, 2002) et le paradigme kuhnien du progrès scientifique (Kuhn, 1996), partant du traité sociologique sur la confiance sociétale en les nombres (Porter, 1995), l’auteur se joint au débat sur la nature des sciences sociales. Ces constats empiriques éclairent l’activité de modélisation dans les sciences sociales. Exposant que la qualité de construction sociale des mathématiques (Berger & Luckmann, 1966b; Jorion, 2009) est en pratique ignorée à la fois par les chercheurs en sciences sociales et les praticiens des affaires, sont évoquées (a) la façon dont la théorie physique post-newtonienne avance en construisant de nouvelles algèbres, et (b) les alternatives théoriquement licites à l'arithmétique de Péano et la géométrie euclidienne qui n'ont pas été explicitement rejetées ou considérées dans les modélisations sociales. Des tentatives indépendantes et superficiellement paradoxales de théorisation des organisations avec divers outils mathématiques —en particulier (Bitbol, 2009; Donaldson, 2010)— sont ensuite conciliées. Puis, des principes de développement d’un corpus mathématique phénoménologiquement fondé et spécifique aux sciences sociales sont exprimés. Ensuite, est exposé comment une double perspective de réseaux sociaux, appliquée conjointement aux niveaux sémantique et culturel, peut utilement étendre l'analyse qualitative de discours. Pour illustrer les implications pratiques de cette thèse, un terrain fertile est retenu ; une méthodologie d’intégration post-fusion de la connaissance organisationnelle sans perte d'information, proposée. Jouant du rôle particulier des énumérations, des informations spatiales, et des informations temporelles dans le discours et la langue occidentaux (Aristote, 2000a; Benveniste, 1966), une méthodologie, qui s'appuie à la fois sur la normalisation de base de données du domaine des systèmes d’information (Codd, 1970, 1972, 1974; Date, Darwen, & Lorentzos, 2003; Fagin, 1977, 1979, 1981) et du modèle dynamique de création de connaissances SECI (Nonaka, 1994) du domaine de la gestion des connaissances en sciences de gestion, est décrite. Cette méthodologie, baptisée Archinormalisation par l’auteur, introduit le concept sociologiquement ancré d’Entité sans Attribut.Enfin, de nouvelles voies de recherche sont évoquées / In a critical management study, drawing on Aristotelian analysis of language (Aristotle, 2000; Benveniste, 1966), (Crosby, 1997)’s historical analysis of the emergence of what he coins modern society’s pentametric mentalité, (Jorion, 2009)’s anthropological exposition of the West’s invention of Truth and (objective) Reality, and following, albeit with a much more limited scope, in the footsteps of Hellenist philosopher Jullien’s forays into Chinese thought (Jullien, 1995, 2009), numbers, space and time are revealed as semiotically-grounded social constructs and philological methods —revealing semiotic gaps (Cruse, 2004; Lyons, 1995)— shed light unmatched by past multicultural surveys (Hofstede, 1983; House, Hanges, Javidan, Dorfman, & Gupta, 2006).From this, are defended the merits of exercising self-doubt, open-mindedness, and unlearning capability, whilst in cross-cultural and crossdisciplinary contexts, and awareness of cross-cultural and cross-disciplinary cognitive gaps at the individual, team, group and organizational levels.Anchored epistemologically in Popperian falsifiability (Popper, 2002), Kuhnian scientific progress (Kuhn, 1996) and Porter’s sociologicaltreatise on our trust in numbers (Porter, 1995), the author joins the debate on the nature of social science. What this thesis’ empirical findings reveal in the context of mathematically supported model-building in the realm of social science is explored; that social scientists and business practitioners model-building is blindsided to the socially constructed nature of mathematics (Berger & Luckmann, 1966; Jorion, 2009) is pondered; how post-Newtonian theoretical physics builds new theory by building new math is evoked; mathematically sound alternatives to Peano arithmetic and Euclidean geometry that have not been explicitly dismissed or considered by social scientists is exposed; independent and superficially paradoxical attempts to theorize organizations with various bodies ofmathematics are reconciled —notably (Bitbol, 2009; Donaldson, 2010); and development principles towards a phenomenologicallygrounded mathematics corpus are yielded. Next, how a social network perspective applied conjointly at the semantic and cultural levels of analysis may usefully extend and bring insights to standard qualitative content analysis is put forward. To illustrate the practical implications of this thesis, one fertile ground is focused upon and a loss-less method to merge indwelled information systems is posited. Empirically illustrating the Aristotelian breakdown of language into its component parts (and the special role numbers, space, and time play in Western discourse and language), a methodology is described for nonloss post-merger integration of organizational knowledge that builds both on (Codd, 1970, 1972, 1974; Date et al., 2003; Fagin, 1977, 1979, 1981) database normalization from the field of Information Management in Computer Science, and on (Nonaka, 1994)’s SECI dynamic model of knowledge creation fromthe field of Knowledge Management in Business Administration Studies. This methodology, coined Archnormalization by the author,introduces the sociologically-grounded concept of Attribute-free Entities. Finally, further avenues of research are outlined that ultimately lie beyond the scope of this thesis.
|
12 |
Essays in Applied Microeconomics / Essais en microéconomie appliquéeFerraro, Jimena 02 December 2016 (has links)
Cette thèse en microéconomie appliquée se compose de trois chapitres, chacun abordant une question différente. Le premier chapitre, « La distribution séquentielle en présence de fraude », montre comment les entreprises peuvent exploiter le moment de la diffusion des contenus afin d’atténuer les effets de la fraude numérique, dans un monde où un certain piratage est inévitable. À travers un modèle, cet article fournit une explication claire de la façon dont une firme peut faire obstacle à la fraude à travers un changement de la distribution séquentielle du produit. En l’absence de fraude, les profits des entreprises sont indépendants de la manière dont le contenu est mis en vente. Cependant, lorsque la fraude représente une menace réelle, l’entreprise peut en atténuer les effets en choisissant de manière stratégique la part du produit qui est offert à chaque période. Cela permet de changer la valeur du produit pour les consommateurs et de rendre la fraude moins attractive de ce point de vue. L’entreprise en situation de monopole bénéficie de la libération de contenu en deux périodes différentes d’une manière asymétrique qui trouvent des analogies dans des exemples réels tels que le marché des outils logiciels spécialisés ou des émissions de télévision. Le deuxième chapitre, « L’offre complice dans les enchères à valeur commune », présent les effets d’un type d’enchère frauduleuse appelée « enchère complice ». Cette fraude consiste à placer des enchères anonymes sur ordre du vendeur en vue de faire monter artificiellement le prix de l’objet vendu. Nous concevons un modèle simple pour comprendre les incitations du vendeur à enchérir de manière complice dans une enchère anglaise à valeur commune, dans laquelle l’information privée des participants suit une distribution discrète. Nous montrons comment le caractère discret de la distribution affecte le profit espéré du fait d’enchérir de manière complice pour le vendeur ex-ante. Nous montrons aussi comment le vendeur révise ses enchères complices à partir de l’information qu’il reçoit à mesure que l’enchère se déroule. Nous trouvons que si le nombre de signaux est faible, le vendeur peut gagner à ne pas participer, même lorsque les autres participants sont myopes. Par ailleurs, et quel que soit le nombre de signaux dans l’enchère, si le nombre de participants est assez élevé, le fait d’avoir la possibilité de mettre en œuvre une enchère complice a toujours pour effet de détériorer le profit espéré du vendeur. Le troisième chapitre, « Le confort des médecins et le choix des césariennes », est co-écrit avec Shagun Khare et Alan Acosta. Cet article analyse les causes qui pourraient expliquer le taux élevé de césarienne à Buenos Aires, en Argentine, qui excède largement la recommandation de l’Organisation mondiale de la Santé (OMS). L’hypothèse d’une demande induite par le fournisseur, qui prévoit plus de césariennes que nécessaire du point de vue médical, pourrait expliquer cet écart. Dans cet article co-écrit avec Shagun Khare et Alan Acosta, nous étudions un aspect des incitations des médecins à stimuler la demande : le confort. A partir d’une enquête menée auprès de femmes enceintes à Buenos Aires, nous regardons si les chances qu’une femme fasse l’objet d’une césarienne dépend du moment de l’accouchement, en particulier s’il s’agit d’un jour travaillé ou non. En laissant de côté les césariennes planifiées, nous trouvons que le confort compte, mais seulement dans les hôpitaux privés. Nous trouvons aussi qu’une femme qui déclare préférer une césarienne à une naissance naturelle a de plus grandes chances de recourir à une césarienne dans les hôpitaux privés. Nos résultats montrent aussi que l’environnement institutionnel joue un rôle déterminant sur la manière dont le confort des médecins et les préférences des mères influencent ces choix. / This thesis in applied microeconomics is composed of three chapters, each one addressing a different question. The first chapter, “Sequential distribution in the presence of Piracy”, shows how firms can exploit the timing of the release of digital content as a way to mitigate the effects of piracy, in a world where some piracy is unavoidable. We develop an analytical model where a monopolist produces a particular good, and it can choose the time at which its product is available to consumers. On top of deciding on prices, the monopolist also chooses the share of the product it releases at each period. In the absence of piracy, firm’s profits are independent of the way in which content is released. However, when piracy is a real threat, the firm can soften its effect by strategically selecting the share of the product offered in each period, changing consumers’ valuation and making piracy less attractive from their perspective. The monopolist benefits from releasing content in two different periods in an asymmetric way which find analogies in real life examples such as the market of specialised software tools or of TV shows. The second chapter, “Shill bidding in common value auctions”, presents the effects of a particular cheating environment in common value auctions. Shill bidding consists of placing anonymous bids on the seller’s behalf to artificially drive up the prices of the auctioned item. We build a simple model to understand the incentives a seller has to shill bid in an English common value auction where the bidders’ private information is drawn from a discrete distribution. We show how the discreteness affects the seller’s ex-ante expected gain of shill bidding, and we also show how the seller updates his shill bid based on the new information he receives as the auction goes on. We find that if the number of signals is low, the seller might be better off refraining from participating even when bidders are fully myopic. Moreover, for any number of signals in the auction, if the number of participants is sufficiently high, the shill bidding strategy always deteriorates the seller’s expected profits. The third chapter, “Physician convenience and cesarean section delivery”, is co-authored with Shagun Khare and Alan Acosta. This paper analyses the causes that might explain the high rate of cesarean section in Buenos Aires, Argentina, that far exceeds the World Health Organization recommendation. The supplier-induced demand hypothesis, which predicts more c-section deliveries than otherwise medically needed, might be the reason for this disparity. In this paper, using a survey of pregnant women in Buenos Aires, we study one aspect of the physician’s incentives to induce demand: convenience. We look at whether a woman’s chance of getting a c-section depends on the period of delivery, i.e. whether it is a working day or not. Setting aside scheduled c-sections, we find that convenience matters, but only in private hospitals. We also find that women who state that they prefer c-sections over natural births have a higher chance of having a c-section in private hospitals. While physicians’ convenience and mothers’ preferences do matter, our research finds that the institutional environment plays a defining role in how much these matters.
|
13 |
Stratégies de recherche et de traitement de l'information dans des environnements informatiques et sentiment d'efficacité personnelle des futurs enseignants à l'égard de ces stratégiesFournier, Hélène January 2007 (has links) (PDF)
Le but de la présente étude est de tracer un portrait des stratégies de recherche et de traitement de l'information (RTl) et du sentiment d'efficacité personnelle des futurs enseignants à l'égard de ces stratégies dans les environnements informatiques. Pour ce faire, nous avons décrit les stratégies de RTl selon les étapes inspirées des modèles de Hill (1999) et de Kuhlthau (1993). Par la suite, nous avons analysé le sentiment d'efficacité personnelle des futurs enseignants à utiliser un environnement informatique tel qu'Internet. Finalement, nous avons vérifié l'efficacité réelle des stratégies de RTl dans les environnements informatiques pendant la réalisation de neuf activités de RTl. Une méthode mixte jumelant l'enquête et une étude de dix cas est choisie afin d'obtenir des perspectives différentes en lien avec les trois objectifs de recherche de la présente étude. Dans cette visée, des outils tels que le questionnaire, l'observation et l'entrevue sont retenus. Premièrement, dans le cadre de l'enquête, nous utilisons le questionnaire, Research Process Survey (RPS) de Kracker (2002) afin de décrire la perception des stratégies affectives et cognitives associées à un processus de recherche selon les différentes étapes d'une recherche d'information. Afin de mesurer le sentiment d'efficacité personnelle à utiliser un environnement informatique tel qu'Internet, une section du questionnaire Online Technologies Self-efficacy Scale (OTSES) de Miltiadou et Chong Ho (2000) a été retenue. L'enquête a été effectuée auprès de 134 futurs enseignants de l'Université du Québec à Trois-Rivières (UQTR). Dans un deuxième temps, les données proviennent de l'observation de neuf activités de RTl dans les environnements informatiques. Ces activités de RTl ont été effectuées par les sujets de l'enquête ayant manifesté leur intérêt (10 participantes). Ces activités ont amené une analyse qualitative des stratégies de RTl utilisées et de l'efficacité réelle de ces dernières. Le moyen privilégié consiste à réaliser des activités de RTl à trois niveaux de complexité (simple, modérée et complexe). L'ensemble de ces activités fait appel à des stratégies de recherche et de traitement et l'intégration de l'information. Finalement, les données provenant du protocole de la pensée à voix haute et de l'entrevue individuelle semi dirigée ont l'avantage d'être révélatrices et riches sur le plan descriptif afin de mieux comprendre le processus de recherche et du traitement de l'information dans un environnement informatique. En fait, puisque l'entrevue individuelle a lieu immédiatement après les activités de RTl, chacune des participantes valide et complète les observations recueillies. Pour répondre à la première question de recherche portant sur la description des stratégies de RTl dans les environnements informatiques, les résultats de l'enquête montrent qu'il n'y a pas une grande dispersion des réponses obtenues des futurs enseignants participant à l'étude entre les différentes étapes du processus de recherche ni pour les stratégies cognitives, ni pour les stratégies affectives. Les données provenant de l'étude de cas montrent, quant à elles, une grande variété de stratégies cognitives et de stratégies affectives selon les étapes du processus de recherche dans les environnements informatiques.
Ainsi, la description détaillée des stratégies cognitives met en lumière ce que font des futurs enseignants lors de la réalisation d'activités de RTl dans les environnements informatiques. À l'étape 1 « Initiation de la recherche », la majorité des participantes ne tiennent pas compte de l'étape de planification. L'étape 2 « Recherche de l'information » amène des stratégies cognitives très variées. On remarque la tendance des participantes à utiliser les moteurs de recherche Internet plutôt que le catalogue de la bibliothèque de l'UQTR ou les banques de données. On remarque aussi, chez la plupart des participantes, la non utilisation des liens booléens et la prédominance d'une stratégie d'« essais et erreurs ». À l'étape 3 « Exécution de la recherche » qui fait référence à l'exploration, la localisation et l'accès à l'information, les résultats montrent que plusieurs participantes aux activités de RTl n'explorent pas en profondeur les sites que les différents moteurs de recherche mettent à leur disposition. En ce qui concerne les stratégies cognitives à l'étape 4 « Collecte de l'information », il est intéressant de remarquer que les étudiants universitaires conservent leurs habitudes acquises antérieurement, comme consulter les premiers sites ou les premières références proposés par les moteurs de recherche. Par ailleurs, il semble que les stratégies à cette étape ressemblent aux habitudes de lecture dans les environnements documentaires traditionnels, par exemple, choisir les titres et les sous-titres ou les tables de matières. On constate qu'à l'étape 5 « Évaluation de l'information » que les participantes aux activités de RTl rapportent une grande variété de stratégies liées à l'évaluation de l'information. Nous pouvons penser que le phénomène de la désirabilité sociale peut avoir joué un rôle. Par ailleurs, il est à noter que certaines stratégies liées à l'évaluation de l'information montrent une efficacité douteuse telles que se fier à sa première impression pour évaluer de l'information ou vérifier la présentation globale (tour d'horizon). Pour conserver l'information, apprendre par coeur les adresses des sites sur Internet ne semble pas non plus un choix judicieux. Nous constatons que les stratégies pour transformer et intégrer l'information semblent identiques pour toutes les participantes: utiliser la fonction « copier/coller » et reformuler en ses mots l'information trouvée sont deux stratégies souvent mentionnées par les participantes. Parmi les autres stratégies liées à cette étape, on retrouve: travailler à partir de la documentation sur papier (impriment les informations), contrairement à d'autres qui travaillent directement à l'ordinateur. Pour les critères d'éthique, les participantes mentionnent la stratégie suivante: citer les sources selon les règles de présentation d'un guide. Cependant, il faut souligner qu'aucune participante aux activités de RTl n'a vérifié les droits de reproduction des informations durant les activités proposées. La description détaillée des stratégies affectives, tout en n'étant pas facile à réaliser, offre une première ouverture sur les stratégies de la motivation et d'adaptation qui accompagnent un processus de RTl dans les environnements informatiques. Cet aspect affectif, souvent absent dans des recherches précédentes, met en évidence le rôle actif des futurs enseignants lors d'une activité de RTl. En ce qui concerne les stratégies affectives, les résultats de l'enquête et de l'étude de cas montrent que la majorité des futurs enseignants participant à notre étude sont confiants à commencer une activité de recherche et cette confiance se perçoit à toutes les étapes du processus de recherche. Dans l'ensemble, ils semblent aussi satisfaits du processus que du produit. Les participantes aux activités de RTl quant à elles relèvent certaines stratégies spécifiques telles que fournir les efforts pour réussir ou être tenace, être curieuse et éviter les sites qui désorientent. De plus, les résultats recueillis à propos du sentiment d'efficacité personnelle des futurs enseignants à l'égard des stratégies de RTl dans les environnements informatiques montrent une perception positive pour des étudiants universitaires finissant leur scolarité. La majorité des futurs enseignants ayant participé à l'enquête se sentent efficaces à utiliser les fonctions des environnements informatiques liées directement à la RTl de même que celles étant connexes sauf pour la fonction, créer une page Web. L'analyse de l'efficacité réelle des stratégies de RTl dans les environnements informatiques montre que la majorité des participantes ont réussi à rencontrer les critères de réussite des activités de RTl dans les environnements informatiques. Cependant, certaines lacunes ont été observées, par exemple, pour choisir des outils de recherche ou des descripteurs adaptés, pour limiter les résultats de recherche ou pour évaluer et conserver l'information.
Bien que présentant certaines limites, cette recherche a le mérite, entre autres, de documenter le processus de RTl dans les environnements informatiques en précisant des dimensions présentes dans la recension des écrits, par exemple, la difficulté de planification et d'en identifier d'autres telle que la barrière linguistique. De plus, cette recherche offre un potentiel de retombées pour la formation initiale. Elle permet d'apporter des connaissances susceptibles d'alimenter la formation des futurs enseignants à l'égard du processus de RTl dans les environnements informatiques. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Éducation, Formation des enseignants, Recherche et traitement de l'information, Auto-efficacité, Environnement informatique.
|
14 |
Online complaint handling practices and the role of politeness in firm-customer interactionsSchwab, Pierre-Nicolas 15 October 2015 (has links)
Following the call for further research on the organisational side of complaint handling, this research aims to explore actual firms’ complaint handling practices with a special focus on the role of politeness in firms-complaints interactions. This research is largely based on a dataset of naturally occurring exchanges obtained from the online public forum Les Arnaques – “The Scams” (www.lesarnaques.com). The setting is similar to a double-deviation scenario: the consumers had already complained once through the relevant company but were unsatisfied with the response. By lodging their complaint on the forum they seek mediation to obtain satisfaction in a second attempt.As a first step, an enhanced conceptualisation of politeness in relation to the concept of complaint handling was proposed and tested. Sociolinguistics theories were used (Goffman’s theory of face, Grice’s maxims) and a quantitative analysis was conducted, to discover how the consumer’s perception of a firm’s politeness is influenced. This conceptualisation, new for the marketing literature, led to proposing a more accurate framework to assess the politeness-related practices of firms when handling complaints.In a second step, this new conceptualisation of politeness was integrated within a larger framework to assess firms’ practices on several dimensions. Justice theory was used as a starting point to define practices within each dimension of justice: distributive, procedural and interactional. Literature from other disciplines (sociology, linguistics, psychology) was used to define precisely the different constructs belonging to the three dimensions. For instance the “empathy” construct was split, based on the literature in psychology, into cognitive and affective empathy, which allowed the precise identification of the occurrences of empathy in firms’ answers. The effects of 33 dimensions were analysed, using a sample of 523 exchanges archived from the forum Les Arnaques. A multinomial regression analysis showed that the most significant antecedent of post-complaint satisfaction was a new dimension, not previously found in the literature: the provision of evidence that the complainant’s problem had been, or was about to be, solved.In a third step, exploratory research was undertaken to investigate possible collinearity effects between three of the most often cited constructs of interactional justice: empathy, politeness and apology. Using the coding guide previously developed, and the exchanges coded, results showed some overlap between the constructs and high Cramer’s V, indicating a redundant concept. Recommendations were provided as to what should be measured, and how, so that researchers can avoid such effects in the future.The naturally occurring exchanges used for the first three steps revealed that firms’ answers were often impolite and littered with spelling mistakes. Two subsequent papers explored the phenomena of grammaticality and im/politeness.In a fourth step, the effects of grammaticality and politeness on customers’ perceptions and behavioural outcomes were explored. Specifically, a survey was conducted to determine the effect of grammar/spelling mistakes and politeness on the perception of professionalism and on repurchase intention. Results from a PATH analysis showed that politeness and grammaticality had low or no direct effect on loyalty. However, indirect effects mediated by professionalism were strong, indicating that consumers’ repurchase intentions depend on a firm’s perceived professionalism.Finally, in a fifth step, efforts were focused on impoliteness and on the role the communication channel plays in expressions of impoliteness. Impolite answers found on the online forum were compared with offline responses obtained in a field experiment. Unexpectedly, results from a discourse analysis showed that the highest levels of impoliteness were not reached in online exchanges, where users can hide behind anonymity, but in postal exchanges. In particular, we found that some companies returned the original complaint letter, riddled with insults. This led us to propose that impoliteness not only a matter of content (the words being used) but also of form. In this case, the letter seemed to act as a catalyst for conflict and was the trigger for verbal violence.In terms of marketing, the following work contributes to theory building by proposing a new conceptualisation of politeness, by defining a more precise framework to analyse firms’ complaint handling practices, and by uncovering collinearity effects that may have impeded previous results. The last two steps of this thesis bring exploratory insights by showing the effects of politeness and grammaticality on consumers’ perceptions.Besides contributing new academic insights, one goal of this thesis was also to serve the business community. The findings show that politeness matters: not only does politeness help reach short-term goals like post-complaint satisfaction, but it also contributes to long-term effort, like forging a professional identity and fostering customer loyalty. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
|
15 |
Online Dynamic Algorithm Portfolios: Minimizing the computational cost of problem solvingGagliolo, Matteo 24 March 2010 (has links)
This thesis presents methods for minimizing the computational effort of problem solving. Rather than looking at a particular algorithm, we consider the issue of computational complexity at a higher level, and propose techniques that, given a set of candidate algorithms, of unknown performance, learn to use these algorithms while solving a sequence of problem instances, with the aim of solving all instances in a minimum time. An analogous meta-level approach to problem solving has been adopted in many different fields, with different aims and terminology. A widely accepted term to describe it is algorithm selection. Algorithm portfolios represent a more general framework, in which computation time is allocated to a set of algorithms running on one or more processors.Automating algorithm selection is an old dream of the AI community, which has been brought closer to reality in the last decade. Most available selection techniques are based on a model of algorithm performance, assumed to be available, or learned during a separate offline training sequence, which is often prohibitively expensive. The model is used to perform a static allocation of resources, with no feedback from the actual execution of the algorithms. There is a trade-off between the performance of model-based selection, and the cost of learning the model. In this thesis, we formulate this trade-off as a bandit problem.We propose GambleTA, a fully dynamic and online algorithm portfolio selection technique, with no separate training phase: all candidate algorithms are run in parallel, while a model incrementally learns their runtime distributions. A redundant set of time allocators uses the partially trained model to optimize machine time shares for the algorithms, in order to minimize runtime. A bandit problem solver picks the allocator to use on each instance, gradually increasing the impact of the best time allocators as the model improves. A similar approach is adopted for learning restart strategies online (GambleR). In both cases, the runtime distributions are modeled using survival analysis techniques; unsuccessful runs are correctly considered as censored runtime observations, allowing to save further computation time.The methods proposed are validated with several experiments, mostly based on data from solver competitions, displaying a robust performance in a variety of settings, and showing that rough performance models already allow to allocate resources efficiently, reducing the risk of wasting computation time. / Permanent URL: http://doc.rero.ch/record/20245 / info:eu-repo/semantics/nonPublished
|
16 |
Étude des méthodes numériques pour l'optimisation de forme en mécanique des solidesLuneau, Philippe-André 24 November 2023 (has links)
Titre de l'écran-titre (visionné le 26 juin 2023) / Ce travail porte sur le problème d'optimisation de forme dans le cadre de la mécanique des solides en petites déformations, et plus spécialement sur les différentes méthodes numériques utilisées pour résoudre le problème. Une présentation de la théorie de la mécanique des milieux continus, axée sur la mécanique des solides, sera présentée. L'équation de l'équilibre dynamique, qui sera utilisée comme équation d'état dans le reste du mémoire, y sera dérivée. Par la suite, un bref rappel de la théorie de l'optimisation dans les espaces de Hilbert sera fait, particulièrement sur les conditions d'optimalité pour des problèmes avec ou sans contrainte. On étudiera également les différents modèles qui existent pour représenter mathématiquement l'espace des formes admissibles, ainsi que les difficultés théoriques qui se cachent derrière le problème d'optimisation de forme. Puis, on s'intéressera aux méthodes numériques utiles à la résolution de ce problème : en premier, des paradigmes de discrétisation pour résoudre l'équation d'état en mécanique seront présentés, notamment la méthode des éléments finis (MEF). Deuxièmement, une revue des différentes techniques d'optimisation numérique sera faite, pour donner une vue d'ensemble des algorithmes qui peuvent être utilisés sur le problème d'optimisation de forme. Finalement, quelques unes de ces méthodes seront implémentées dans le logiciel d'éléments finis MEF++ et testées sur des cas classiques d'optimisation topologique dans le paradigme SIMP, principalement dans le but de faire une analyse de leur comportement sur des instances de dimension élevée, en parallèle, sur une grappe de calcul. / This work is dedicated to shape optimization problems applied to linear elasticity, focusing mostly on the numerical methods used to solve these problems. An overview of continuum mechanics is first presented. The linear dynamic equilibrium equation is derived, as it is the classical state equation for most shape optimization problems in solid mechanics. Subsequently, the theory of optimization in general Hilbert spaces is presented, with emphasis on the existence and uniqueness conditions for optimality, for both constrained and unconstrained problems. Different models for representing shapes mathematically and their known theoretical limitations are also described. Then, numerical methods for the solution of the mechanical state equation are explored, in particular, the finite element method (FEM). A review of different algorithms to solve the discretized optimization problem is done afterwards, to give an overview of the wide array of available methods. Finally, some of those algorithms are implemented in the finite element software MEF++ and are tested on classical topology optimization problems with the SIMP model, mainly to study their performance on high-dimensional instances solved on a parallel computer cluster.
|
17 |
Caractérisation géotechnique des argiles du Bas-Saint-LaurentFerland, Jérémie 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 20 novembre 2023) / Les argiles de la mer Goldthwait, dans la région du Bas-Saint-Laurent, présentent une unité stratigraphique, difficile à échantillonner, dont les propriétés géotechniques sont moins connues. Il s'agit d'une couche en surface d'argile massive, très raide, qui repose sur une unité argileuse stratifiée. À la suite d'une première phase d'investigation réalisée par Hébert (2016), les sites de Saint-Anaclet-de-Lessard, Trois-Pistoles et Price, dans la région du Bas-Saint-Laurent, ont été choisis afin de réaliser une caractérisation géotechnique complète. Ces sites sont composés d'une couche très raide (unité supérieure) située sur une couche argileuse ferme à raide (unité inférieure) et, sur certains sites une unité intermédiaire raide se trouve entre ces 2 unités. Au Ct-Scan, l'unité supérieure présente une matrice massive et celle-ci se serait déposée par-dessus l'unité inférieure lors d'une récurrence glaciaire dans la région. Les indices de liquidité se situent entre -0,1 et 0,5 dans l'unité supérieure et les essais triaxiaux indiquent un comportement fortement dilatant. La résistance au cisaillement non drainé est très variable entre les sites et les corrélations avec celle-ci sont généralement faibles dans la région d'étude. À l'œdomètre, les courbes ont une forme « arrondie » indiquant que le principe de contrainte de préconsolidation s'appliquerait mal pour cette unité. Dans son cas, l'unité inférieure est légèrement surconsolidé à normalement consolidé avec des indices de liquidité entre 0,08 et 0,9. La résistance en pointe corrigée (qt) est généralement sous 3000 kPa et les images Ct-Scan présentent des strates sub-horizontales. Pour cette unité, des corrélations peuvent être réalisées avec les piézocônes, les scissomètres et les essais sismiques. Pour ces 2 unités stratigraphiques, les relations de Leroueil et coll. (1983) à l'état remanié corrèlent avec les argiles des sites du Bas-Saint-Laurent et la composition minéralogique de la région à l'étude serait similaire. L'analyse des modules permet de déterminer qu'il existerait une dégradation des modules avec l'augmentation de la déformation. La relation entre l'indice de compression et l'indice des vides initial est forte, et les argiles présentent de faibles sensibilités.
|
18 |
Du jugement en éthique appliquée : étude sur la co-appartenance de la subjectivité, de la santé et de l'éthique dans le jeu auto-référential de la créativitéQuintin, Jacques 13 April 2021 (has links)
"Thèse présentée à l'Université Laval comme exigence partielle du doctorat en philosophie offert à l'Université de Sherbrooke en vertu d'un protocole d'entente avec l'Université Laval." / Du jugement en éthique appliquée. Étude sur la co-appartenance de la subjectivité, de la santé et de l’éthique dans le jeu auto-référential de la créativité. Comment pouvons-nous penser un événement singulier caractérisé par la temporalité qui concerne notre existence? Pour y parvenir, nous dégagerons une anthropologie tirée d’une lecture de l’histoire de la philosophie qui nous permettra de penser l’être humain com m e un être créatif, plus particulièrement un être créatif de soi. Cette création de soi, cette autopoièse, nous la nommerons 1 ’ auto-référentialité (avec un a) pour marquer l’ouverture, un changement enraciné dans la totalité. Ainsi la totalité ou l’identité sera une reprise de soi en intégrant le changement. Le sujet n’est jamais ainsi le même quoiqu’il demeure toujours identique, c’est-à-dire un soi créateur en faisant l’exercice du jugement auto-réfléchissant qui est un jugement sans concept s’exerçant à partir du réel singulier. Pour mieux cerner le travail de la créativité dans le jugement, nous procéderons par variations eidétiques autour de la subjectivité et de chacun de ses modes (le corps, l’agir, le sentir et le dire), de l’épistémologie, de la métaphore, de l’herméneutique, de la dialectique, de l’intersubjectivité, de la santé et de l’éthique. Cette variation eidétique nous permettra de montrer que les lois de la subjectivité, de la santé et de l’éthique sont les mêmes. Elles sont celles de la créativité où quelque chose de nouveau émerge à partir du jugement auto-réfléchissant. C’est pourquoi, au cœur de la créativité, ce qui se joue, est un processus herméneutique qui relance constamment la créativité du jugement auto-réfléchissant. C’est le caractère auto-référential de la créativité et du jugement auto-réfléchissant. Devant les événements singuliers, nous devons exercer davantage un jugement auto-réfléchissant qu’un jugement déterminant. Si un tel jugement pose du nouveau, c’est également un jugement qui exerce une libération envers nos anciens jugements dans lesquels nous sommes empêtrés en raison de leurs succès antérieurs. Alors ces questions que l’éthique met de l’avant sont des portes d’entrée pour ressaisir notre existence créatrice; notre subjectivité. Alors le jugement en éthique appliquée apparaît comme un acte de création de soi, de santé et de valeur.
|
19 |
L'intégration de l'éthique aux pratiques de gestion : un redéploiement de la responsabilité dans les entreprises publiquesBoivin, Marjolaine 23 April 2018 (has links)
Le phénomène grandissant des problèmes éthiques présents dans le monde du travail soulève la question des modes actuels d’organisation du travail. Pour faire face à cette nouvelle donne, de nombreuses approches managériales ont été proposées. Parmi elles, on retrouve l’éthique réflexive qui est encore peu intégrée aux pratiques de gestion, laissant plutôt la place à des formes plus classiques de management. On impute habituellement cette absence au temps qu’exige l’éthique réflexive et à la responsabilité qu’elle engage. Or, l’engagement à se compromettre sans risque de s’épuiser est possible dans la mesure où les paramètres de sécurité ou de soutien pour les individus et les organisations sont clairement établis et intégrés de façon systémique dans l’entreprise. C’est alors la responsabilité des organisations qui prévaut et le management est donc pensé en fonction de cette approche, et l’éthique en milieu de travail également. C’est pourquoi nous formulons l’hypothèse que le concept de responsabilité peut être l’outil nécessaire pour faire émerger l’éthique dans les milieux de travail. Nous tentons donc de faire voir comment la responsabilité doit être comprise pour intégrer l’éthique aux nouveaux modes d’organisation du travail. Pour ce faire, nous avons retenu une approche pragmatiste de l’éthique et de la responsabilité. La réactivité exigée des organisations modernes engendre souvent une perte de maîtrise sur l’organisation du travail. Alors que l’appel à la responsabilité des employés sur l’efficience et l’efficacité de leur travail augmente le contrôle normatif, celui qu’ils ont sur leur travail décroît. La démonstration de ces limites permettra de faire voir pourquoi une approche réflexive de l’éthique s’impose. Par le soutien ou l’accompagnement à la prise de décision qu’elle permet, l’éthique réflexive contribue à rétablir cette responsabilité déficiente, de la redéployer en toute sécurité, tout en permettant aux directions des services d’assumer une maîtrise suffisante des risques. Une approche préventive de la gestion prenant en compte des critères de valeurs créerait les espaces de réflexion nécessaires aux gestionnaires et aux employés. C’est dans ce contexte que nous proposons d’appliquer l’éthique aux pratiques de gestion en distinguant la gestion de l’éthique de la gestion éthique, tout particulièrement dans les entreprises publiques.
|
20 |
Résolution itérative de problèmes de contact frottant de grande tailleDiop, Thierno 30 December 2024 (has links)
La résolution des problèmes de contact avec frottement est d’une grande importance dans beaucoup d’applications en ingénierie. Pour ces applications, la précision et l’optimisation du temps de calcul sont des contraintes impératives mais souvent contradictoires. Les problèmes industriels portent généralement sur des géométries complexes et tridimensionnelles composées de matériaux au comportement non linéaire. De ce fait, si on utilise la méthode des éléments finis, ils mènent à des problèmes discrets non linéaires et de grande taille. Ces derniers, après linéarisation, entraînent des systèmes algébriques de plusieurs milliers voire de millions d’inconnues ne pouvant être résolus que par des méthodes itératives. Ceci implique que les méthodes fréquemment utilisées, la pénalisation et le lagrangien augmenté, ne peuvent être considérées en raison du mauvais conditionnement de la matrice sous-jacente donc de leur effet négatif sur la convergence des méthodes itératives. Nous proposerons une approche itérative efficace pour résoudre les problèmes de contact associés à des applications industrielles : une résolution permettant d’avoir des résultats numériques précis en un temps de calcul acceptable. Cette approche sera basée sur la méthode des multiplicateurs de Lagrange et une méthode de résolution du système linéaire associé qui n’est pas tout à fait standard. Cette dernière s’insère dans un processus itératif à plusieurs niveaux qui représente la principale contribution de la thèse. Nous présenterons la stratégie adoptée qui est différente de celles de la littératurepour la résolution des problèmes de types point de selle et en ferons une étude complète. Pour valider notre approche, nous étudierons des exemples numériques académiques de problèmes de contact classiques. Nous présenterons aussi des problèmes industriels de très grande taille afin d’illustrer l’efficacité, la précision et la performance en temps de calcul de la méthode développée dans cette thèse. / Solving friction contact problems is of great importance in many engineering applications. For these applications, the accuracy and the optimization of the calculation cost are imperative but often contradictory. Industrial problems generally involve complex and three-dimensional geometries composed of materials that exhibit non-linear behavior. Consequently, using the finite element method, they lead to large-scale non linear discrete problems and, after linearization, to algebraic systems of several thousand or even millions of unknowns and ultimately tocalculations needing iterative methods. This implies that the frequently used methods, the penalization and the augmented Lagrangian, are to be banned because of their negative effect on the condition number of the underlying discrete systems and thus on the convergence of theiterative methods. We will propose an efficient iterative approach to solve the contact problems associated with industrial applications: a resolution allowing to have accurate numerical results in an acceptable computation time.This approach will be based on the method of Lagrange multiplier and a method for solving the associated linear system that is not quite standard. The latter is part of an iterative, multi-level process that represents the main contribution of the thesis. We will present the adopted strategy, which is different from what is found in the literature, for the resolution of saddle-type problems and will make a complete study of it. To validate our approach, we will study academic numerical examples of classical contact problems. We will also present some large-scale industrial problems in order to illustrate the efficiency, accuracy and computation performance of the method developed in this thesis.
|
Page generated in 0.0401 seconds