• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 353
  • 170
  • 53
  • 4
  • 2
  • 1
  • Tagged with
  • 598
  • 355
  • 146
  • 140
  • 113
  • 74
  • 72
  • 71
  • 55
  • 51
  • 47
  • 45
  • 44
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Etude d’une nouvelle classe de graphes : les graphes hypotriangulés / A class of graphs : hypochordal graphs

Topart, Hélène 26 May 2011 (has links)
Dans cette thèse, nous définissons une nouvelle classe de graphes : les graphes hypotriangulés. Les graphes hypotriangulés vérifient que pour tout chemin de longueur deux, il existe une arête ou un autre chemin de longueur deux entre ses extrémités. Cette classe permet par exemple de modéliser des réseaux robustes. En effet, nous montrons que dans de tels graphes, la suppression d'une arête ou d'un sommet ne modifie pas la distance initiale entre toutes paires de sommets non adjacents. Ensuite, nous étudions et démontrons plusieurs propriétés pour cette classe de graphes. En particulier, après avoir introduit une famille de partitions spécifiques, nous montrons les relations entre certains éléments de cette famille et leur caractère hypotriangulé. De plus, grâce à ces partitions, nous caractérisons les graphes hypotriangulés minimum, qui, parmi les graphes hypotriangulés connexes, minimisent le nombre d'arêtes pour un nombre de sommets fixés.Dans une deuxième partie, nous étudions la complexité, pour la classe des graphes hypotriangulés, de problèmes difficiles dans le cas général. Nous montrons d'abord que les problèmes classiques de cycle hamiltonien, coloration, clique maximum et stable maximum restent NP-difficiles pour cette classe de graphes. Ensuite, nous nous intéressons à des problèmes de modification de graphes, pour lesquels il s'agit de déterminer le nombre minimal d'arêtes à ajouter ou supprimer à un graphe pour obtenir un graphe hypotriangulé : nous montrons la complexité de ces problèmes pour plusieurs classes de graphes. / In this thesis, we define a new class of graphs : the hypochordal graphs. These graphs satisfy that for any path of length two, there exists a chord or another path of length two between its two endpoints. This class can represent robust networks. Indeed, we show that in such graphs, in the case of an edge or a vertex deletion, the distance beween any pair of nonadjacent vertices remains unchanged. Then, we study several properties for this class of graphs. Especially, after introducing a family of specific partitions, we show the relations between some of these partitions and hypochordality. Moreover, thanks to these partitions, we characterise minimum hypochordal graph, that are, among connected hypochordal graphs, those that minimise the number of edges for a given number of vertices. In a second part, we study the complexity, for hypochordal graphs, of problems that are NP-hard in the general case. We first show that the classical problems of hamiltonian cycle, colouring, maximum clique and maximum stable set remain NP-hard for this class of graphs. Then, we analyse graph modification problems : deciding the minimal number of edges to add or delete from a graph, in order to obtain an hypochordal graph. We study the complexity of these problems for sevaral classes of graphs.
192

Combined complexity of probabilistic query evaluation / Complexité combinée de l'évaluation de requêtes sur des données probabilistes

Monet, Mikaël 12 October 2018 (has links)
L'évaluation de requêtes sur des données probabilistes(probabilistic query evaluation, ou PQE) est généralement très coûteuse enressources et ce même à requête fixée. Bien que certaines restrictions sur les requêtes et les données aient été proposées pour en diminuerla complexité, les résultats existants ne s'appliquent pas à la complexité combinée, c'est-à-dire quand la requête n'est pas fixe.Ma thèse s'intéresse à la question de déterminer pour quelles requêtes et données l'évaluation probabiliste est faisable en complexité combinée.La première contribution de cette thèse est d'étudier PQE pour des requêtes conjonctives sur des schémas d'arité 2. Nous imposons que les requêtes et les données aient la forme d'arbres et montrons l'importance de diverses caractéristiques telles que la présence d'étiquettes sur les arêtes, les bifurcations ou la connectivité.Les restrictions imposées dans ce cadre sont assez sévères, mais la deuxième contribution de cette thèse montreque si l'on est prêts à augmenter la complexité en la requête, alors il devient possible d'évaluer un langage de requête plus expressif sur des données plus générales. Plus précisément, nous montrons que l'évaluation probabiliste d'un fragment particulier de Datalog sur des données de largeur d'arbre bornée peut s'effectuer en temps linéaire en les donnéeset doublement exponentiel en la requête. Ce résultat est prouvé en utilisant des techniques d'automatesd'arbres et de compilation de connaissances. La troisième contribution de ce travail est de montrer les limites de certaines de ces techniques, en prouvant desbornes inférieures générales sur la taille de formalismes de représentation utilisés en compilation de connaissances et en théorie des automates. / Query evaluation over probabilistic databases (probabilistic queryevaluation, or PQE) is known to be intractable inmany cases, even in data complexity, i.e., when the query is fixed. Althoughsome restrictions of the queries and instances have been proposed tolower the complexity, these known tractable cases usually do not apply tocombined complexity, i.e., when the query is not fixed. My thesis investigates thequestion of which queries and instances ensure the tractability ofPQE in combined complexity.My first contribution is to study PQE of conjunctive queries on binary signatures, which we rephraseas a probabilistic graph homomorphism problem. We restrict the query and instance graphs to be trees and show the impact on the combined complexity of diverse features such as edge labels, branching,or connectedness. While the restrictions imposed in this setting are quite severe, my second contribution shows that,if we are ready to increase the complexity in the query, then we can evaluate a much more expressive language on more general instances. Specifically, I show that PQE for a particular class of Datalog queries on instances of bounded treewidth can be solved with linear complexity in the instance and doubly exponential complexity in the query.To prove this result, we use techniques from tree automata and knowledge compilation. The third contribution is to show the limits of some of these techniques by proving general lower bounds on knowledge compilation and tree automata formalisms.
193

Managing Complexity and Uncertainty by a Modelling Approach for Decision Making in Integrated Product/Process Design / Maitrise de la complexité et incertitude pour l'aide à la décision en conception intégrée produit processus par des approches de modélisations

Babaeizadeh malmiry, Roozbeh 10 October 2016 (has links)
L'objectif principal lors de la conception et du développement de produits est d'augmenter la valeur de ceux-ci. La Valeur comprend deux aspects : la qualité et le coût. Afin de prendre en compte ces deux aspects, cette thèse se focalise sur la conception intégrée des produits et des processus, et en particulier sur la complexité du processus de conception et les incertitudes associées. Cette thèse propose une approche de modélisation systématique pour maitriser les incertitudes et gérer la complexité. Cette approche comprend deux phases: détermination du modèle et analyse du système. La première phase contient deux propositions : une approche de modélisation de produits basée sur la modélisation des flux d'énergie dans le cadre méthodologique Characteristics-Properties Modelling (CPM). Cette approche donne un cadre qui permet de facilité la transition d’une vue fonctionnelle à une vue structurelle associée à une modélisation quantitative. La seconde proposition porte sur l’aide du concepteur lors de la conception concurrente (IPPD) où à la fois les performances et les coûts sont pris en compte. Cette approche est basée sur le flux du processus en respectant le même cadre (CPM), elle donne aussi un cadre pour la transition fonctionnelle / structurelle. Les modélisations structurelles quantitatives permettent l’analyse de sensibilité, l’analyse des tolérances et l'optimisation. L’application de l'approche est démontrée par une étude de cas industriel.Grâce à cette approche, les caractéristiques modifiables et pertinentes du produit peuvent être déterminées. Le tolérancement peut être intégré dans le processus de conception et son impact sur la performance du produit peut être analysé. Les relations quantitatives du produit, du processus sont identifiées. Les incertitudes dans les relations et dans toutes les étapes de la modélisation peuvent être élicitées et maitrisées. Cette approche systématique donne un cadre pour le concepteur à travers le processus de conception pour prendre des décisions dans tous les niveaux de décomposition sur la base de la fonction requise et le coût de fabrication. L'approche est applicable tant pour la modélisation d'un produit existant (une approche d'optimisation), tant pour la modélisation d'un nouveau produit (phase de conception conceptuelle). / The main objective in product design and development is to increase the value of a product. Value includes two aspects of quality and cost. In order to take into account both aspects, this thesis aims at Integrated Product and Process Design, especially on product design complexity and its inherent (associated) complexities. This thesis proposes a systematic modelling approach to reduce uncertainty and manage complexity. The approach includes two phases: model determination and system analysis. The first phase contains two propositions: first, a product modelling approach based on energy flow modelling in the framework of Characteristics-Properties Modelling (CPM). This approach gives a modelling framework for a smoother transition from functional to structural views, with a quantitative modelling. The second proposition is to help the designer for decision making in concurrent designing (IPPD) where both performance and cost are taken into account. This approach is based on the process flows in the same framework (CPM). The second phase is to use the determined model of phase 1 to analyse the system. So, phase 2 includes sensitivity analysis, tolerance analysis and optimisation. An application of the approach is demonstrated through an industrial case study.Thanks to this approach, effective modifiable characteristics of the product on its performance are determined. Tolerancing can be integrated in design process and its impact on the product performance can be analysed. Quantitative links in product, in process and between product elements and process elements are identified. Uncertainty in the links and every step of modelling can be elicited and managed. This systematic approach gives a pathway to the designer through the design process to make decisions in every level of decomposition based on the required function and cost of manufacturing. The approach is applicable for both modelling an existing product (optimisation approach) and modelling a new product (conceptual design phase).
194

Regard complexe sur la traduction comme réécriture de textes infinis

Canalès, Audrey 03 1900 (has links)
Bien que la traduction et l’adaptation disposent de cadres théoriques permettant de considérer la textualité au sens le plus large possible, penser la traduction hors du transfert interlinguistique et interculturel demeure un défi. Dès lors que l’audiovisuel est concerné, les publications se concentrent sur l’adaptation d’œuvres écrites pour les écrans, ou sur les défis linguistiques liés à la multimodalité (Article 2). Des études explorent les villes en traduction, les villes en performance, ou la traduction comme performance, mais en traductologie, la performance comme traduction reste peu explorée, alors qu’en culture, en sociologie, ou au théâtre, il est établi qu’une identité peut se traduire en vêtement, en ambiance lumineuse, en couleur, en nourriture, entre autres (Article 1). L’approche transdisciplinaire choisie pour la présente recherche s’appuie sur des concepts issus de la traductologie, de la sociologie, des études culturelles et des études de performance. Cette combinaison inspirée par la pensée complexe permet d’analyser des processus traductionnels peu étudiés en traductologie. J’observe entre autres des formes de réécriture généralement non considérées comme des traductions, comme les extensions narratives transmédiales ou performatives de textes parfois multiples, comportant des éléments non verbaux (Articles 1,3). Je mets ainsi en évidence la présence et l’importance de ces processus traductionnels dans la transmission diachronique des identités culturelles (Articles 1,3). Pour ce faire, j’ai observé et analysé de nombreuses performances, participé à des expériences immersives et conduit des entrevues dialogiques réflexives interdisciplinaires avec divers artistes, créateurs ou famille des sujets de performance (Article 3). Mes observations m’ont permis d’établir la définition de la traduction performative comme la traduction intersémiotique et multimodale de textes complexes ne se limitant pas à des éléments verbaux. Le tissu traductionnel des univers transmédiaux est en constante expansion, quoique cette expansion soit rarement d’ordre linéaire ; elle oscille entre présent et passé, entre diverses idéologies, circule sur divers canaux de renarration. J’ai décrit ces univers comme des textes infinis en perpétuel désordre. La présente thèse par articles comprend une introduction générale, rédigée en français, dans laquelle je présente les trois articles (rédigés en anglais), puis détaille mes approches théorique et méthodologique. Dans le premier article, j’explore les représentations performatives des identités artistiques et politiques, illustrées par les exemples de l’artiste canadienne Feist et de l’artiviste « post-mexicain » Guillermo Gómez-Peña; j’y définis la notion de traduction performative et de texte infini. Le deuxième article est un appel à étudier les univers transmédia d’un point de vue traductologique, sous peine de voir disparaitre la traduction de débats universitaires en cours sur les nouvelles formes de narration. Le troisième article explore l’univers narratif transmédial de la baronne de Pontalba, la célèbre bâtisseuse créole de la Nouvelle-Orléans. Ces articles forment un ensemble dont le but est de montrer l’intérêt de diverses formes narratives d’un point de vue traductionnel, avec une approche complexe. / Though there are theoretical frameworks in Translation Studies and in Adaptation Studies to problematize textuality in its broadest sense, thinking translation studies out of the prism of linguistic transfers between two cultures/two languages is challenging. When audiovisual matters are studied, publications focus on book-to-screen adaptations, or on the linguistic challenges of multimodality (Article 2). Some studies explore cities in translation, cities in performance, or translation as performance, but in Translation Studies, performance as translation remains understudied, though Cultural Studies, Sociology or Performance Studies have established that identity can be translated in clothes, in lighting, in colour, in food, among others (Article 1). This thesis’s transdisciplinary approach draws on concepts from Translation Studies, Sociology, Cultural Studies and Performance Studies. Combining them enables me to analyze understudied translation phenomena from a complex perspective. I study, among others, forms of re-writings that are generally not considered as translations, such as transmedial or performative narrative extensions of sometimes multiple texts with non-verbal elements, such as identities (Articles 1,3). This shows the presence and the importance of translational processes in cultural identity transmission across history (Articles 1,3). For the purposes of this research, I have observed a number of performances, sometimes as a participant, participated in immersive experiences, and conducted interdisciplinary reflexive dialogic interviews with artists, creators or with the family of the subject of a performance. My observations led me to provide the definition of performative translation as a set of intersemiotic multimodal processes of complex texts such as identities, not limited to verbal elements. The translation fabric of transmedial universes rarely has linear expansions; it oscillates between past and present, ideologies, using various narrative modes. I described these ever-growing narrative universes as infinite texts, evolving in constant disorder. This thesis by publications is composed of a General Introduction (written in French), in which I present the three articles (written in English), then explain my theoretical and methodological approaches. The first article explores the performative representations of political and artistic identities, with the examples of Canadian songstress Feist and « post-Mexican » artivist Guillermo Gómez Peña; it provides definitions of performative translation and infinite text. The second article calls for exploring transmedia storyverses from a translational point of view; it emphasizes the risk for Translation and Adaptation Studies to be invisibilized from ongoing academic conversations on new narrative modes if they do not. The third article adopts a complex Translation Studies point of view to analyze the narrative universe of the Baroness Pontalba, the New Orleans famous Creole builder (Article 3). These articles aim at showing the interest of studying diverse narrative forms from a translational point of view inspired by Complexity thinking.
195

Le développement de la complexité lexicale en français langue seconde à la suite d'un programme d'immersion à l'étranger de cinq semaines

Bonneau, Marc-André 20 April 2018 (has links)
L’objectif principal de cette étude était d’observer le développement de la complexité lexicale (DCL) en français langue seconde (FLS) d’apprenants adultes (n=100) ayant participé à un programme d’immersion à l’étranger (PIÉ) de cinq semaines. L’étude a comparé trois groupes de participants distincts et a fait état d’augmentations significatives du nombre de mots total et du nombre de mots uniques pour tous les groupes, surtout pour le groupe débutant (n=33). Le développement de la diversification lexicale (DDL) mesuré à l’aide de huit variables n’a montré que peu de résultats significatifs, suggérant ainsi que le DDL devait impliquer une période d’immersion plus longue. L’utilisation des mots uniques complexes (MUC), caractéristique de la diversité lexicale, nécessite une habileté plus grande que plusieurs apprenants n’ont pas réussi à acquérir. Une implication didactique qui découle de cette étude tient à la nature progressive de l’apprentissage du vocabulaire. Certains mots, dont les MUC, semblent être appris à un stade plus avancé.
196

Specimen theoriae novae de mensura complexus : Mesures objectives de la complexité = Objective measures of complexity / Mesures objectives de la complexité / Objective measures of complexity

Pronovost, Sylvain 24 April 2018 (has links)
Mesures Objectives de la Complexité pour la Prise de Décision Dynamique. La gestion efficace de systèmes sociotechniques complexes dépend d’une compréhension des interrelations dynamiques entre les composantes de ces systèmes, de leur évolution à travers le temps, ainsi que du degré d’incertitude auquel les décideurs sont exposés. Quelles sont les caractéristiques de la prise de décision complexe qui ont un impact sur la performance humaine dans l’environnement moderne du travail, constamment en fluctuation et sous la pression du temps, exerçant de lourdes demandes sur la cognition ? La prise de décision complexe est un concept issu de la macrocognition, impliquant des processus et des fonctions de bas et haut niveaux de description tels que la métacognition, soit pour un individu de penser à propos de son propre processus de pensées. Dans le cas particulier de la prise de décision complexe, ce phénomène est nommé la pensée systémique. L’étude de la prise de décision complexe en dehors de l’environnement traditionnel du laboratoire, permettant un haut niveau de contrôle mais un faible degré de réalisme, est malheureusement difficile et presque impossible. Une méthode de recherche plus appropriée pour la macrocognition est l’expérimentation basée sur la simulation, à l’aide de micromondes numérisés sous la forme de jeux sérieux. Ce paradigme de recherche est nommé la prise de décision dynamique (PDD), en ce qu’il tient compte des caractéristiques de problèmes de prise de décision complexe telles que des séquences complexes de décisions et de changements d’états d’un problème interdépendants, qui peuvent changer de façon spontanée ou comme conséquence de décisions préalables, et pour lesquels la connaissance et la compréhension du décideur peut n’être que partielle ou incertaine. Malgré la quantité de recherche concernant la PDD à propos des difficultés encourues pour la performance humaine face à des problèmes de prise de décision complexe, l’acquisition de connaissances à propos de systèmes complexes, et à savoir si le transfert de l’apprentissage est possible, il n’existe pas de mesure quantitative de ce en quoi un problème de décision est considéré comme étant complexe. La littérature scientifique mentionne des éléments qualitatifs concernant les systèmes complexes (tels que des interrelations dynamiques, une évolution non-linéaire d’un système à travers le temps, et l’incertitude à propos des états d’un système et des issues des décisions), mais des mesures quantitatives et objectives exprimant la complexité de problèmes de décision n’ont pas été développées. Cette dissertation doctorale présente les concepts, la méthodologie et les résultats impliqués dans un projet de recherche visant à développer des mesures objectives de la complexité basées sur les caractéristiques de problèmes de prise de décision dynamique pouvant expliquer et prédire la performance humaine. En s’inspirant de divers domaines d’application de la théorie de la complexité tels que la complexité computationnelle, la complexité systémique, et l’informatique cognitive, un modèle formel des paramètre de la complexité pour des tâches de prise de décision dynamique a été élaboré. Un ensemble de dix mesures objectives de la complexité a été développé, consistant en des mesures de la complexité structurelle, des mesures de la complexité informationnelle, la complexité de la charge cognitive, et des mesures de la difficulté d’un problème, de la non-linéarité des relations, de l’incertitude concernant l’information et les décisions, ainsi qu’une mesure de l’instabilité d’un système dynamique sous des conditions d’inertie. Une analyse des résultats expérimentaux colligés à partir de cinq scénarios de PDD révèle qu’un nombre restreint de candidats parmi des modèles de régression linéaires multiple permet d’expliquer et de prédire les résultats de performance humaine, mais au prix de certaines violations des postulats de l’approche classique de la régression linéaire. De plus, ces mesures objectives de la complexité présentent un degré élevé de multicolinéarité, causée d’une part par l’inclusion de caractéristiques redondantes dans les calculs, et d’autre part par une colinéarité accidentelle imputable à la conception des scénarios de PDD. En tenant compte de ces deux considérations ainsi que de la variance élevée observée dans les processus macrocognitifs impliqués dans la prise de décision complexe, ces modèles présentent des valeurs élevées pour le terme d’erreur exprimant l’écart entre les observations et les prédictions des modèles. Une analyse additionnelle explore l’utilisation de méthodes alternatives de modélisation par régression afin de mieux comprendre la relation entre les paramètres de la complexité et les données portant sur performance humaine. Nous avons d’abord opté pour une approche de régression robuste afin d’augmenter l’efficience de l’analyse de régression en utilisant une méthode réduisant la sensibilité des modèles de régression aux observations influentes. Une seconde analyse élimine la source de variance imputable aux différences individuelles en focalisant exclusivement sur les effets imputables aux conditions expérimentales. Une dernière analyse utilise des modèles non-linéaires et non-paramétriques afin de pallier les postulats de la modélisation par régression, à l’aide de méthodes d’apprentissage automatique (machine learning). Les résultats suggèrent que l’approche de régression robuste produit des termes d’erreur substantiellement plus faibles, en combinaison avec des valeurs élevées pour les mesures de variance expliquée dans les données de la performance humaine. Bien que les méthodes non-linéaires et non-paramétriques produisent des modèles marginalement plus efficients en comparaison aux modèles de régression linéaire, la combinaison de ces modèles issus du domaine de l’apprentissage automatique avec les données restreintes aux effets imputables aux conditions expérimentales produit les meilleurs résultats relativement à l’ensemble de l’effort de modélisation et d’analyse de régression. Une dernière section présente un programme de recherche conçu pour explorer l’espace des paramètres pour les mesures objectives de la complexité avec plus d’ampleur et de profondeur, afin d’appréhender les combinaisons des caractéristiques des problèmes de prise de décision complexe qui sont des facteurs déterminants de la performance humaine. Les discussions concernant l’approche expérimentale pour la PDD, les résultats de l’expérimentation relativement aux modèles de régression, ainsi qu’à propos de l’investigation de méthodes alternatives visant à réduire la composante de variance menant à la disparité entre les observations et les prédictions des modèles suggèrent toutes que le développement de mesures objectives de la complexité pour la performance humaine dans des scénarios de prise de décision dynamique est une approche viable à l’approfondissement de nos connaissances concernant la compréhension et le contrôle exercés par un être humain face à des problèmes de décision complexe. / Objective Measures of Complexity for Dynamic Decision-Making. Managing complex sociotechnical systems depends on an understanding of the dynamic interrelations of such systems’ components, their evolution over time, and the degree of uncertainty to which decision makers are exposed. What features of complex decision-making impact human performance in the cognitively demanding, ever-changing and time pressured modern workplaces? Complex decision-making is a macrocognitive construct, involving low to high cognitive processes and functions, such as metacognition, or thinking about one’s own thought processes. In the particular case of complex decision-making, this is called systems thinking. The study of complex decision-making outside of the controlled, albeit lacking in realism, traditional laboratory environment is difficult if not impossible. Macrocognition is best studied through simulation-based experimentation, using computerized microworlds in the form of serious games. That research paradigm is called dynamic decision-making (DDM), as it takes into account the features of complex decision problems, such as complex sequences of interdependent decisions and changes in problem states, which may change spontaneously or as a consequence of earlier decisions, and for which the knowledge and understanding may be only partial or uncertain. For all the research in DDM concerning the pitfalls of human performance in complex decision problems, the acquisition of knowledge about complex systems, and whether a learning transfer is possible, there is no quantitative measure of what constitutes a complex decision problem. The research literature mentions the qualities of complex systems (a system’s dynamical relationships, the nonlinear evolution of the system over time, and the uncertainty about the system states and decision outcomes), but objective quantitative measures to express the complexity of decision problems have not been developed. This dissertation presents the concepts, methodology, and results involved in a research endeavor to develop objective measures of complexity based on characteristics of dynamic decision-making problems which can explain and predict human performance. Drawing on the diverse fields of application of complexity theory such as computational complexity, systemic complexity, and cognitive informatics, a formal model of the parameters of complexity for dynamic decision-making tasks has been elaborated. A set of ten objective measures of complexity were developed, ranging from structural complexity measures, measures of information complexity, the cognitive weight complexity, and measures of problem difficulty, nonlinearity among relationships, information and decision uncertainty, as well as a measure of the dynamical system’s instability under inertial conditions. An analysis of the experimental results gathered using five DDM scenarios revealed that a small set of candidate models of multiple linear regression could explain and predict human performance scores, but at the cost of some violations of the assumptions of classical linear regression. Additionally, the objective measures of complexity exhibited a high level of multicollinearity, some of which were caused by redundant feature computation while others were accidentally collinear due to the design of the DDM scenarios. Based on the aforementioned constraints, and due to the high variance observed in the macrocognitive processes of complex decision-making, the models exhibited high values of error in the discrepancy between the observations and the model predictions. Another exploratory analysis focused on the use of alternative means of regression modeling to better understand the relationship between the parameters of complexity and the human performance data. We first opted for a robust regression analysis to increase the efficiency of the regression models, using a method to reduce the sensitivity of candidate regression models to influential observations. A second analysis eliminated the within-treatment source of variance in order to focus exclusively on between-treatment effects. A final analysis used nonlinear and non-parametric models to relax the regression modeling assumptions, using machine learning methods. It was found that the robust regression approach produced substantially lower error values, combined with high measures of the variance explained for the human performance data. While the machine learning methods produced marginally more efficient models of regression for the same candidate models of objective measures of complexity, the combination of the nonlinear and non-parametric methods with the restricted between-treatment dataset yielded the best results of all of the modeling and analyses endeavors. A final section presents a research program designed to explore the parameter space of objective measures of complexity in more breadth and depth, so as to weight which combinations of the characteristics of complex decision problems are determinant factors on human performance. The discussions about the experimental approach to DDM, the experimental results relative to the regression models, and the investigation of further means to reduce the variance component underlying the discrepancy between the observations and the model predictions all suggest that establishing objective measures of complexity for human performance in dynamic decision-making scenarios is a viable approach to furthering our understanding of a decision maker’s comprehension and control of complex decision problems.
197

Les paradoxes du travail social en regard de la théorie de la complexité : comment recréer le travail social au-delà de ses aberrations

Boily, Pierre-Yves 20 April 2018 (has links)
Cette thèse a pour objet la philosophie du Travail Social, ses paradigmes et ses valeurs contradictoires. La mise en perspective des prémisses souvent implicites des praticiens avec les défis éthiques et les contraintes organisationnelles auxquels ils se disent confrontés ouvre un champ important de réflexion sur la définition même du Travail Social. Peut-on reconnaître un sens (une intelligence de la situation) aux contradictions et paradoxes contenus dans les valeurs, les définitions et les pratiques du Travail Social? Ou doit-on se contenter de les déplorer ou de les assumer comme le lot quotidien de la mission des travailleurs sociaux? Un constat: le Travail Social, comme profession et comme discipline, est en déficit d'une lecture permettant de faire des liens entre ses praxis, ses discours éthiques et ses paradigmes. Une éthique désincarnée, un éclectisme des cadres théoriques, une instrumentalisation des pratiques font partie des manifestations de ce déficit. La praxis locale, nationale et internationale explore de nombreuses directions sans réussir jusqu'ici à cerner un paradigme commun susceptible d'opérer une synthèse des pratiques et des valeurs. Notre présomption: la théorie de la complexité offre une épistémologie permettant la compréhension, l'intégration et le dépassement des contradictions et paradoxes éthiques et paradigmatiques du Travail Social. À partir de la proposition de définition de Richard Ramsay, la théorie de la complexité est mise à l'épreuve dans la compréhension, l'intégration et le dépassement des paradoxes en Travail Social. Dans une discussion trialectique entre les types de praxis, les discours éthiques et les paradigmes évoqués en Travail Social, la théorie de la complexité transfigure les paradoxes du Travail Social en en faisant une de ses forces essentielles plutôt qu'une de ses limites. Cette proposition contribuera au débat sur la formulation de la définition du Travail Social. Mots-clés: Travail social, paradoxes, complexité, définition, éthique, cadres théoriques, paradigme. / The object of this thesis is to examine the philosophy of Social Work, its paradigms and contradictory values. Shedding new light on the premises put forth by practitioners, often too implicitly, along with the day-to-day ethical struggles and organisational constraints which they face has allowed for a new dimension of thought on the very definition of Social Work. Do the contradictions and paradoxes reflected in the values, practices, and definitions of Social Work make any sense? Are there any other options than to denounce or even assume such double-binds as the expected load of social workers? Our observation: Social Work as a profession and as a discipline lacks a framework that would allow interactions to take place between interventions, ethics, and paradigms. Disembodied ethics, theoretical frameworks lost in the shuffle as well as an instrumentation of practices are but a few of the examples showing how such deficit manifests. Local, national, and international definitions and praxis have made several unsuccessful attempts to establish a common paradigm that would be conducive to the full integration of practices and values. We submit that the Complexity Theory offers an epistemology that allows understanding, integrating, and going beyond the ethical and practical contradictions and paradoxes specific to Social Work. In light of the definition put forward by Richard Ramsay, the Complexity Theory is further tested in understanding, integrating, and transcending the paradoxes arising from Social Work practices and praxis. In a discussion involving the various types of practices, ethical discourses, and paradigms addressed in Social Work, the Complexity Theory takes paradoxes that could limit the scope of Social Work and transforms them into an essential professional force. This is our contribution to the debate on the definition of Social Work. Keywords: Social Work, paradoxes, Complexity, definition, ethics, paradigms, theoretical frameworks.
198

Au coeur du chaos : une expérimentation de systèmes de classement inclusifs dans une pratique d'ordre esthétique

Vézina, Karine 19 April 2018 (has links)
Devant certaines réalités de nature complexe qui nous plongent dans une incompréhension inconfortable apparait la nécessité de mettre en place un système organisationnel qui saura mettre fin à ce désordre. Plusieurs systèmes de classement sont en mesure de gérer une complexité, mais très peu y parviennent en incluant la totalité des composantes du problème. Cette problématique de l’inclusion constitue l’un des enjeux primordiaux de ma recherche. La complexité située au cœur de mon projet est composée de milliers de dessins issus d’une méthodologie rigoureuse, à la limite de l’automatisme et dépourvus d’intention. Il en résulte des signes informes, à mi-chemin entre abstraction et représentation, à partir desquels ont été explorées différentes avenues systémiques prenant la forme d’un mur de classification, d’un livre d’artiste, d’un film d’animation, de divers recueils d’archive et d’une sculpture en laine crochetée. Tout cela dans une attitude d’ouverture et de flexibilité. Une expérience esthétique naitra alors.
199

Triangulation de Delaunay et arbres multidimensionnels

Lemaire, Christophe 19 December 1997 (has links) (PDF)
Les travaux effectués lors de cette thèse concernent principalement la triangulation de Delaunay. On montre que la complexité en moyenne - en termes de sites inachevés - du processus de fusion multidimensionnelle dans l'hypothèse de distribution quasi-uniforme dans un hypercube est linéaire en moyenne. Ce résultat général est appliqué au cas du plan et permet d'analyser de nouveaux algorithmes de triangulation de Delaunay plus performants que ceux connus à ce jour. Le principe sous-jacent est de diviser le domaine selon des arbres bidimensionnels (quadtree, 2d-tree, bucket-tree. . . ) puis de fusionner les cellules obtenues selon deux directions. On étudie actuellement la prise en compte de contraintes directement pendant la phase de triangulation avec des algorithmes de ce type. De nouveaux algorithmes pratiques de localisation dans une triangulation sont proposés, basés sur la randomisation à partir d'un arbre binaire de recherche dynamique de type AVL, dont l'un est plus rapide que l'algorithme optimal de Kirkpatrick, au moins jusqu'à 12 millions de sites K Nous travaillons actuellement sur l'analyse rigoureuse de leur complexité en moyenne. Ce nouvel algorithme est utilisé pour construire " en-ligne " une triangulation de Delaunay qui est parmi les plus performantes des méthodes " en-ligne " connues à ce jour.
200

Structures et aléa en finance, une approche par la complexité algorithmique de l'information

Ma, Lin 23 November 2010 (has links) (PDF)
Cette thèse s'interroge sur les notions d'aléa et de régularité des variations boursières. Nous démontrons sur le plan théorique, la compatibilité des principales théories financières (cf. efficience informationnelle, finance comportementale et approche conventionnaliste) avec l'impossibilité de battre la stratégie "buy and hold". Cette impossibilité est confirmée par les études statistiques dans la mesure où les régularités identifiées dans les séries financières ne permettent pas de prédire le sens des variations futures. Les modèles économétriques disponibles à présent offrent souvent un "hit score" insuffisant (<60%) pour réussir des tentatives fructueuses de "market timing". Une contribution de ce travail se trouve dans l'introduction du concept de complexité algorithmique en finance. Une approche générale est proposée pour estimer la "complexité de Kolmogorov" des séries de rentabilités: après un processus "discrétisation-effacement", des algorithmes de compression sans perte sont utilisés pour détecter des structures régulières qui ne sont pas toujours visibles aux yeux des tests statistiques. En étudiant le degré d'aléa des principaux marchés internationaux à une fréquence "tick-by-tick", on constate une complexité plus élevée pour Euronext-Paris que pour le NYSE et le NASDAQ. Nous expliquons ce résultat par une auto-corrélation plus élevée des volatilités inter-journalières aux Etats-Unis qu'en France. L'inefficacité de "market timing" étant soutenue aussi bien par les théories financières que par les observations empiriques, nous définissons la notion de "battre le marché" dans ce sens spécifique avec un modèle mathématique qui s'inscrit dans le cadre de la calculabilité.

Page generated in 0.0467 seconds