Spelling suggestions: "subject:"complexité."" "subject:"complexités.""
251 |
Traiter le cerveau avec les neurosciences : théorie de champ-moyen, effets de taille finie et capacité de codage des réseaux de neurones stochastiquesFasoli, Diego 25 September 2013 (has links) (PDF)
Ce travail a été développé dans le cadre du projet européen FACETS-ITN, dans le domaine des Neurosciences Computationnelles. Son but est d'améliorer la compréhension des réseaux de neurones stochastiques de taille finie, pour des sources corrélées à caractère aléatoire et pour des matrices de connectivité biologiquement réalistes. Ce résultat est obtenu par l'analyse de la matrice de corrélation du réseau et la quantification de la capacité de codage du système en termes de son information de Fisher. Les méthodes comprennent diverses techniques mathématiques, statistiques et numériques, dont certaines ont été importés d'autres domaines scientifiques, comme la physique et la théorie de l'estimation. Ce travail étend de précédents résultats fondées sur des hypothèses simplifiées qui ne sont pas réaliste d'un point de vue biologique et qui peuvent être pertinents pour la compréhension des principes de travail liés cerveau. De plus, ce travail fournit les outils nécessaires à une analyse complète de la capacité de traitement de l'information des réseaux de neurones, qui sont toujours manquante dans la communauté scientifique.
|
252 |
Jeux de poursuite-évasion, décompositions et convexité dans les graphesPardo Soares, Ronan 08 November 2013 (has links) (PDF)
Cette thèse porte sur l'étude des propriétés structurelles de graphes dont la compréhension permet de concevoir des algorithmes efficaces pour résoudre des problèmes d'optimisation. Nous nous intéressons plus particulièrement aux méthodes de décomposition des graphes, aux jeux de poursuites et à la notion de convexité. Le jeu de Processus a été défini comme un modèle de la reconfiguration de routage. Souvent, ces jeux où une équipe de chercheurs doit effacer un graphe non orienté sont reliés aux décompositions de graphes. Dans les digraphes, nous montrons que le jeu de Processus est monotone et nous définissons une nouvelle décomposition de graphes que lui est équivalente. Ensuite, nous étudions d'autres décompositions de graphes. Nous proposons un algorithme FPT-unifiée pour calculer plusieurs paramètres de largeur de graphes. En particulier, ceci est le premier FPT-algorithme pour la largeur arborescente q-branché et spéciale d'un graphe. Nous étudions ensuite un autre jeu qui modélise les problèmes de pré-chargement. Nous introduisons la variante en ligne du jeu de surveillance. Nous étudions l'écart entre le jeu de surveillance classique et ses versions connecté et en ligne, en fournissant de nouvelles bornes. Nous définissons ensuite un cadre général pour l'étude des jeux poursuite-évasion. Cette méthode nous permet de donner les premiers résultats d'approximation pour certains de ces jeux. Finalement, nous étudions un autre paramètre lié à la convexité des graphes et à la propagation d'infection dans les réseaux, le nombre enveloppe. Nous fournissons plusieurs résultats de complexité en fonction des structures des graphes et en utilisant des décompositions de graphes.
|
253 |
Analyse macroscopique des grands systèmes : émergence épistémique et agrégation spatio-temporelleLamarche-Perrin, Robin 14 October 2013 (has links) (PDF)
L'analyse des systèmes de grande taille est confrontée à des difficultés d'ordre syntaxique et sémantique : comment observer un million d'entités distribuées et asynchrones ? Comment interpréter le désordre résultant de l'observation microscopique de ces entités ? Comment produire et manipuler des abstractions pertinentes pour l'analyse macroscopique des systèmes ? Face à l'échec de l'approche analytique, le concept d'émergence épistémique - relatif à la nature de la connaissance - nous permet de définir une stratégie d'analyse alternative, motivée par le constat suivant : l'activité scientifique repose sur des processus d'abstraction fournissant des éléments de description macroscopique pour aborder la complexité des systèmes. Cette thèse s'intéresse plus particulièrement à la production d'abstractions spatiales et temporelles par agrégation de données. Afin d'engendrer des représentations exploitables lors du passage à l'échelle, il apparaît nécessaire de contrôler deux aspects essentiels du processus d'abstraction. Premièrement, la complexité et le contenu informationnel des représentations macroscopiques doivent être conjointement optimisés afin de préserver les détails pertinents pour l'observateur, tout en minimisant le coût de l'analyse. Nous proposons des mesures de qualité (critères internes) permettant d'évaluer, de comparer et de sélectionner les représentations en fonction du contexte et des objectifs de l'analyse. Deuxièmement, afin de conserver leur pouvoir explicatif, les abstractions engendrées doivent être cohérentes avec les connaissances mobilisées par l'observateur lors de l'analyse. Nous proposons d'utiliser les propriétés organisationnelles, structurelles et topologiques du système (critères externes) pour contraindre le processus d'agrégation et pour engendrer des représentations viables sur les plans syntaxique et sémantique. Par conséquent, l'automatisation du processus d'agrégation nécessite de résoudre un problème d'optimisation sous contraintes. Nous proposons dans cette thèse un algorithme de résolution générique, s'adaptant aux critères formulés par l'observateur. De plus, nous montrons que la complexité de ce problème d'optimisation dépend directement de ces critères. L'approche macroscopique défendue dans cette thèse est évaluée sur deux classes de systèmes. Premièrement, le processus d'agrégation est appliqué à la visualisation d'applications parallèles de grande taille pour l'analyse de performance. Il permet de détecter les anomalies présentes à plusieurs niveaux de granularité dans les traces d'exécution et d'expliquer ces anomalies à partir des propriétés syntaxiques du système. Deuxièmement, le processus est appliqué à l'agrégation de données médiatiques pour l'analyse des relations internationales. L'agrégation géographique et temporelle de l'attention médiatique permet de définir des évènements macroscopiques pertinents sur le plan sémantique pour l'analyse du système international. Pour autant, nous pensons que l'approche et les outils présentés dans cette thèse peuvent être généralisés à de nombreux autres domaines d'application.
|
254 |
Combinatoire and Bio-informatique : Comparaison de structures d'ARN et calcul de distances intergénomiquesBlin, Guillaume 17 November 2005 (has links) (PDF)
Nous présentons un ensemble de résultats concernant deux types de problèmes biologiques: (1) la comparaison de structures de molécules d'ARN et (2) le calcul de distances intergénomiques en présence de gènes dupliqués. Dans ce manuscrit, nous déterminons la complexité algorithmique de certains problèmes liés soit à la comparaison de structures de molécules d'ARN (distance d'édition, problème APS, recherche de motifs de 2-intervalles, design d'ARN), soit aux réarrangements génomiques (distances de breakpoints et d'intervalles conservés). \\ L'approche adoptée pour l'ensemble de ces problèmes a été de déterminer, si possible, des algorithmes exacts et rapides répondants aux problèmes posés. Pour tout problème pour lequel cela ne semblait pas possible, nous avons essayé de prouver qu'il ne peut être résolu de fa\ccon rapide. Pour ce faire, nous démontrons que le problème en question est algorithmiquement difficile. Enfin, le cas échéant, nous poursuivons l'étude de ce problème en proposant, essentiellement, trois types de résultats: (1) Approximation, (2) Complexité paramétrée, (3) Heuristique. Nous utilisons, dans ce manuscrit, des notions d'optimisation combinatoire, de mathématique, de théorie des graphes et d'algorithmique.
|
255 |
Conception Intégrée de Meubles Réalisés en Panneaux de Fibres ou de ParticulesPimapunsri, K. 27 November 2007 (has links) (PDF)
Le contexte de globalisation et la volonté de mettre au plus vite sur le marché les produits ou services obligent les entreprises à intégrer des unités délocalisés dès la phase de conception. Cette intégration de domaines très différents rend de plus en plus complexe le processus de conception. Les différents acteurs doivent alors pour collaborer introduire leurs propres contraintes en juste besoin. Ils doivent pour cela pouvoir travailler sur leurs propres vues dans un système multi-acteur mais aussi multidisciplinaire. Nous montrons dans cette étude comment le système de conception collaborative proposé permet de résoudre les problèmes de complexité imaginaire et facilite l'approche de problèmes de complexité réelle. Le développement d'un système collaboratif de conception de meubles réalisés en panneaux de fibres ou de particules permet de manière pragmatique de valider notre approche. Ce système intègre un designer, ou styliste, proposant en esquisse les formes et les principales dimensions d'un meuble répondant à un cahier des charges. Un technologue, un spécialiste des assemblages, un mécanicien et un homme de production permettent progressivement de réaliser les choix technologiques adéquats, de dimensionner les différents éléments en tenant compte de critères de qualité et d'évaluer le coût final d'obtention du produit.
|
256 |
Pour une analyse complexe de la mondialisation. Socio-anthropologie comparative du cas de la grande distribution alimentaire au Maroc, en France et aux États-UnisDanteur, Thibault 07 May 2012 (has links) (PDF)
À la lumière de nombreux travaux récents, la conception, dans le champ des sciences sociales, de la mondialisation économique et culturelle comme une force d'uniformisation semble perdre de sa prégnance. L'objectif de cette thèse de doctorat est donc de se saisir de l'exemple de l'industrie de la grande distribution, en tant qu'éminente représentante de ce phénomène, pour vérifier, à travers le prisme particulier des pratiques et des représentations alimentaires, si l'on peutencore se contenter de comprendre le processus de mondialisation uniquement comme un vecteur d'éradication des différences culturelles. Procédant selon une méthodologie inductive et une approche comparative, nous avons voulu décrire cette industrie et ses implications sur les modalités du choix alimentaire, en prolongeant au Maroc nos analyses basées sur l'étude des cas français et américain. Suivant les préceptes méthodologiques de la socio-anthropologie et la stratégie de la mosaïque d'études de cas, nous avons, selon le modèle itératif prôné notamment par la grounded theory, sans cesse cherché à mettre nos hypothèses à l'épreuve du terrain à travers une constante extension des cas et une variation des objets étudiés. Cela nous a autorisé à viser une plus grande généralisation de nos théories et ainsi arguer en faveur d'une conception moins simplificatrice des processus de mondialisation en ancrant empiriquement notre plaidoyer pour une perspective complexe des phénomènes culturels et sociaux qui en sont issus.
|
257 |
Stabilité et instabilité des valeurs mobilisées dans, par et pour le projet d'urbanisme / The stability and instability of values mobilized in, for and by urban planning projectJaquet, Laure 18 June 2014 (has links)
L’action en urbanisme demeure un champ de recherche riche au regard de sa complexité. Par projet, elle est pratiquée selon une anticipation opératoire partiellement déterminée et repose sur des croyances. Le projet d’urbanisme se définit par l’articulation de plusieurs ambiguïtés notamment entre l’intention directrice de l’action et la confrontation de la réalisation à la réalité. Cette recherche participe à l’intelligibilité de la pratique du projet d’urbanisme, pratique de la complexité. Comme opérateur du projet d’urbanisme, les valeurs constituent l’objet de cette recherche. Nous proposons d’éclairer la pratique du projet par l’analyse de la mobilisation des valeurs dans, pour et par le projet. L’intrigue de cette recherche est la relation entre la mobilisation des valeurs dans le projet d’urbanisme et celui-Ci. Les hypothèses de ce travail reposent sur l’interaction entre la dynamique de cette mobilisation et la dynamique du projet. L’étude du projet Bossut à Cergy-Pontoise, pensé depuis plus de quatre décennies, et l’analyse de la mobilisation des valeurs dans ce projet, celles de Centralité, d’Identité et de Lien, ont révélé que les valeurs, si elles portent le projet d’urbanisme en retour sont portées par lui. Représentée par la figure du Tripode-Culbuto, la dynamique, à la fois stable et instable, de la mobilisation des valeurs dans, pour et par le projet, permet de gérer et de pratiquer une partie de la complexité du projet d’urbanisme. / Action in urban planning remains a field of research rich in terms of its complexity. Each project is performed based on an anticipated, partially determined, operating process and on beliefs as opposed to evidence. An urban planning project is defined as the interlink between several ambiguities, notably between the intended action of the planning and the reality of the situation. This research contributes to a better understanding of the practical considerations of an urban project, an exercise of complexity. The values as operators in urban planning constitute the subject of this research. We propose to provide substantial insights into the practicalities of urban planning by analyzing the mobilization of these values, in, for and by the project. The intrigue of this research is the relationship between the mobilization of these values in urban planning and the project itself. The hypotheses of this work rely on the interaction between the dynamic of this mobilization and the dynamic of the project. A study of the Bossut project in Cergy-Pontoise, which has been in the planning stages for four decades, and an analysis of the mobilization of the values herein (centrality, identity and connection), revealed that they did indeed support the project and, in return, were supported by it. Represented by the figure three-Legged stool / “Culbuto”, the dynamic of the mobilization of values in, for, and by the project, at times stable and unstable, allows managing and putting into practice some of the complexity of urban planning.
|
258 |
Algorithmes d'optimisation sans dérivées à caractère probabiliste ou déterministe : analyse de complexité et importance en pratique / Derivative-free optimization methods based on probabilistic and deterministic properties : complexity analysis and numerical relevanceRoyer, Clément 04 November 2016 (has links)
L'utilisation d'aspects aléatoires a contribué de façon majeure aux dernières avancées dans le domaine de l'optimisation numérique; cela est dû en partie à la recrudescence de problèmes issus de l'apprentissage automatique (machine learning). Dans un tel contexte, les algorithmes classiques d'optimisation non linéaire, reposant sur des principes déterministes, se révèlent en effet bien moins performants que des variantes incorporant de l'aléatoire. Le coût de ces dernières est souvent inférieur à celui de leurs équivalents déterministes; en revanche, il peut s'avérer difficile de maintenir les propriétés théoriques d'un algorithme déterministe lorsque de l'aléatoire y est introduit. Effectuer une analyse de complexité d'une telle méthode est un procédé très répandu dans ce contexte. Cette technique permet déstimer la vitesse de convergence du schéma considéré et par là même d'établir une forme de convergence de celui-ci. Les récents travaux sur ce sujet, en particulier pour des problèmes d'optimisation non convexes, ont également contribué au développement de ces aspects dans le cadre déterministe, ceux-ci apportant en effet un éclairage nouveau sur le comportement des algorithmes. Dans cette thèse, on s'intéresse à l'amélioration pratique d'algorithmes d'optimisation sans dérivées à travers l'introduction d'aléatoire, ainsi qu'à l'impact numérique des analyses de complexité. L'étude se concentre essentiellement sur les méthodes de recherche directe, qui comptent parmi les principales catégories d'algorithmes sans dérivées; cependant, l'analyse sous-jacente est applicable à un large éventail de ces classes de méthodes. On propose des variantes probabilistes des propriétés requises pour assurer la convergence des algorithmes étudiés, en mettant en avant le gain en efficacité induit par ces variantes: un tel gain séxplique principalement par leur coût très faible en évaluations de fonction. Le cadre de base de notre analyse est celui de méthodes convergentes au premier ordre, que nous appliquons à des problèmes sans ou avec contraintes linéaires. Les bonnes performances obtenues dans ce contexte nous incitent par la suite à prendre en compte des aspects d'ordre deux. A partir des propriétés de complexité des algorithmes sans dérivées, on développe de nouvelles méthodes qui exploitent de l'information du second ordre. L'analyse de ces procédures peut être réalisée sur un plan déterministe ou probabiliste: la deuxième solution nous permet d'étudier de nouveaux aspects aléatoires ainsi que leurs conséquences sur l'éfficacité et la robustesse des algorithmes considérés. / Randomization has had a major impact on the latest developments in the field of numerical optimization, partly due to the outbreak of machine learning applications. In this increasingly popular context, classical nonlinear programming algorithms have indeed been outperformed by variants relying on randomness. The cost of these variants is usually lower than for the traditional schemes, however theoretical guarantees may not be straightforward to carry out from the deterministic to the randomized setting. Complexity analysis is a useful tool in the latter case, as it helps in providing estimates on the convergence speed of a given scheme, which implies some form of convergence. Such a technique has also gained attention from the deterministic optimization community thanks to recent findings in the nonconvex case, as it brings supplementary indicators on the behavior of an algorithm. In this thesis, we investigate the practical enhancement of deterministic optimization algorithms through the introduction of random elements within those frameworks, as well as the numerical impact of their complexity results. We focus on direct-search methods, one of the main classes of derivative-free algorithms, yet our analysis applies to a wide range of derivative-free methods. We propose probabilistic variants on classical properties required to ensure convergence of the studied methods, then enlighten their practical efficiency induced by their lower consumption of function evaluations. Firstorder concerns form the basis of our analysis, which we apply to address unconstrained and linearly-constrained problems. The observed gains incite us to additionally take second-order considerations into account. Using complexity properties of derivative-free schemes, we develop several frameworks in which information of order two is exploited. Both a deterministic and a probabilistic analysis can be performed on these schemes. The latter is an opportunity to introduce supplementary probabilistic properties, together with their impact on numerical efficiency and robustness.
|
259 |
Bornes inférieures et supérieures dans les circuits arithmétiques / Upper and lower bounds for arithmetic circuitsTavenas, Sébastien 09 July 2014 (has links)
La complexité arithmétique est l’étude des ressources nécessaires pour calcu- ler des polynômes en n’utilisant que des opérations arithmétiques. À la fin des années 70, Valiant a défini (de manière semblable à la complexité booléenne) des classes de polynômes. Les polynômes, ayant des circuits de taille polyno- miale, considérés faciles forment la classe VP. Les sommes exponentielles de ces derniers correpondent alors à la classe VNP. L’hypothèse de Valiant est la conjecture que VP ̸= VNP.Bien que cette conjecture soit encore grandement ouverture, cette dernière semble toutefois plus accessible que son homologue booléen. La structure algé- brique sous-jacente limite les possibilités de calculs. En particulier, un résultat important du domaine assure que les polynômes faciles peuvent aussi être cal- culés efficacement en paralèlle. De plus, quitte à autoriser une augmentation raisonnable de la taille, il est possible de les calculer avec une profondeur de calcul bornée par une constante. Comme ce dernier modèle est très restreint, de nombreuses bornes inférieures sont connues. Nous nous intéresserons en premier temps à ces résultats sur les circuits de profondeur constante.Bürgisser a montré qu’une conjecture (la τ-conjecture) qui borne supérieu- rement le nombre de racines de certains polynômes univariés, impliquait des bornes inférieures en complexité arithmétique. Mais, que se passe-t-il alors, si on essaye de réduire, comme précédemment, la profondeur du polynôme consi- déré? Borner le nombre de racines réelles de certaines familles de polynômes permetterait de séparer VP et VNP. Nous étudierons finalement ces bornes su- périeures sur le nombre de racines réelles. / Arithmetic complexity is the study of the required ressources for computing poynomials using only arithmetic operations. In the last of the 70s, Valiant defined (similarly to the boolean complexity) some classes of polynomials. The polynomials which have polynomial size circuits form the class VP. Exponential sums of these polynomials correspond to the class VNP. Valiant’s hypothesis is the conjecture that VP is different tVNP.Although this conjecture is still open, it seems more accessible than its boolean counterpart. The induced algebraic structure limits the possibilities of the computation. In particular, an important result states that the low de- gree polynomials can be efficiently computed in parallel. Moreover, if we allow a fair increasement of the size, it is possible to compute them with a constant depth. As this last model is very particular, some lower bounds are known.Bürgisser showed that a conjecture (τ-conjecture) which bounds the number of roots of some univariate polynomials, implies lower bounds in arithmetic complexity. But, what happens if we try to reduce as before the depth of the circuits for the polynomials? Bounding the number of real roots of some families of polynomials would imply a separation between VP and VNP. Finally we willstudy these upper bounds on the number of real roots.
|
260 |
Approche systemique de la créativité : Outils et methodes pour aborder la complexite en conception amont / Systemic approach of creativity : Tools and methods to address complexity in designBila Deroussy, Pathum 02 December 2015 (has links)
Stimuler la créativité demeure un enjeu majeur pour soutenir l’innovation. Depuis les travaux théoriques fondateurs des années 1950-1960, il existe aujourd’hui un grand nombre d’outils, de méthodes, et de guides d’aide au choix diffusés parmi les praticiens. Cependant, les entreprises font aujourd’hui face à une telle complexité, à la fois technique et organisationnelle, que les outils et méthodes traditionnellement utilisés arrivent à leurs limites et manquent d’efficacité. Non seulement nous manquons encore d’une théorie fondamentale de la créativité qui fasse consensus, mais la recherche dans ce domaine manque souvent de pertinence en termes de transfert dans la pratique et d’adéquation avec les besoins pragmatiques industriels. Cette thèse explore comment l'approche systémique permet d’étudier la créativité afin de mettre en évidence de nouveaux moyens de la stimuler dans des contextes industriels complexes. Cette approche nous a permis de synthétiser les mécanismes de la créativité dans un modèle systémique, et de faire émerger trois interactions fondamentales : sensori-motrice, cognitive, et sociale. Pour stimuler simultanément ces interactions, trois axes méthodologiques ont été proposés puis testés au sein d’un contexte industriel automobile, dans le cadre de projets d’innovation réels. Les résultats de nos expérimentations montrent que l'utilisation conjointe, d’une part d’outils de stimulation analogique, d’autre part d'un langage de formes visuelles, et enfin d'un processus cyclique alternant imagination, conception, et création, permet d’améliorer notablement la performance créative. Notre modèle de la créativité, désormais entendu comme le « système complexe de la création », nous permet d’enrichir conjointement le champ scientifique théorique et les pratiques méthodologiques. Il ouvre également des perspectives de développement en sciences de gestion et en management de l’innovation. / Stimulating creativity remains a major challenge to support innovation. Since pioneering theoretical work from 1950-1960, there is now a large number of tools, methods, and guidelines disseminated among practitioners. However, companies today face such complexity, both technical and organizational, that the tools and methods traditionally used reach their limits and became inefficient. Not only we don’t have any strong fundamental theory of creativity, but also research in this field often lacks relevance in terms of transfer into practice and adequacy with pragmatic industrial needs. This thesis explores how the systemic approach allows the study of creativity to highlight new ways to stimulate it in complex industrial settings. This approach allowed us to synthesize the mechanisms of creativity in a systemic model, and bring out three fundamental interactions: sensorimotor, cognitive, and social. To simultaneously stimulate these interactions, three methodological guidelines have been proposed and tested in a car manufacturer industrial environment, in the context of real innovation projects. The results of our experiments show that the combined use of, first analogical stimulation tools, the other a language of visual forms, and finally a cyclical process alternating imagination, design and creation, can significantly improve the creative performance. Our model of creativity, now understood as "the complex system of creation", enables us to jointly enrich the theoretical scientific field and also methodological practices. It also opens developing prospects for innovation management and management sciences.
|
Page generated in 0.045 seconds