Spelling suggestions: "subject:"complexité."" "subject:"complexités.""
131 |
L'éducation à la santé en milieu scolaire au Liban : d'une approche analytique biomédicale vers une perspective écologique biopsychosociale. Étude du curriculum, des manuels scolaires libanais de Sciences de la Vie et des conceptions d'enseignants et d'élèves relatives à l'éducation à la santé dans des écoles privées et publiques de BeyrouthSaab, Odile 19 May 2011 (has links) (PDF)
Cette étude cherche à mesurer l'écart éventuellement existant entre l'éducation à la santé appliquée selon le système éducatif libanais et les recommandations internationales. De même, elle vise à analyser la contribution de cette éducation à la promotion de la santé et au développement global de l'élève libanais. Nous avons adopté une approche méthodologique mixte combinant des analyses descriptives qualitatives et des analyses statistiques quantitatives. L'analyse du contenu du curriculum ainsi que l'analyse du contenu des manuels scolaires nationaux de Sciences de la Vie, pour les quatorze niveaux scolaires, révèlent que l'éducation à la santé est conçue, dans ce curriculum et dans ces manuels, selon une logique linéaire de cause à effet, aux dépens des approches systémiques plus proches de la complexité et des problèmes à résoudre dans le domaine de la santé. Cette réification constitue un obstacle à la construction des liens entre les concepts enseignés pour induire des changements conceptuels et comportementaux sanitaires, chez les élèves. Parallèlement, les analyses typologiques effectuées sur les données recueillies par entretiens auprès de 44 enseignants libanais de Sciences de la Vie, dans 24 écoles publiques et privées de Beyrouth, a abouti à l'identification de divers types d'obstacles d'ordre épistémologique, didactique, idéologique et psychosocial chez les enseignants interviewés. Ces enseignants ont besoin d'être formés en éducation à la santé selon une approche écologique leur permettant de passer d'une conception biomédicale à une conception heuristique et complexe. De même, les analyses typologiques effectuées sur les données recueillies par une enquête par questionnaire auprès de 1366 élèves en Sixième, en Troisième et en Terminale ont révélé l'absence d'une éducation à la santé basée sur une approche globale et contextualisée permettant le développement des compétences cognitives, méthodologiques et psychosociales. Dans cette perspective, et pour une promotion de la santé plus efficace, nous achevons cette étude par des recommandations pour une meilleure intégration de la complexité dans l'éducation à la santé, au Liban.
|
132 |
Sur la décomposition réelle et algébrique des systèmes dépendant de paramètresMoroz, Guillaume 28 November 2008 (has links) (PDF)
Cette thèse traite des systèmes paramétrés. Ils modélisent des applications dans divers domaines, comme la robotique ou la calibration. Soit S un système paramétré. Nous cherchons à décrire les ouverts connexes U de l'espace des paramètres tels que S restreint à U admet un nombre constant de solutions réelles. En robotique, nous détectons les positions cuspidales des robots plan 3-RPR. En calibration photographique, nous décrivons le nombre de solutions réalisables du problème Perspective-3- Points. D'un point de vue théorique, nous montrons que sous certaines hypothèses, le calcul de la variété discriminante d'un système paramétré peut se réduire à un calcul de projection. Dans le cas des systèmes quelconques, nous introduisons la décomposition équidimensionnelle régulière. Notre algorithme possède de bonnes performances en pratique et nous permet par ailleurs de déduire un nouvel algorithme pour le calcul du radical d'un idéal.
|
133 |
Modèles combinatoires des structures d'ARN avec ou sans pseudonoeuds, application à la comparaison de structures.Saule, Cédric 17 December 2011 (has links) (PDF)
Ces travaux de thèse proposent une modélisation des structures secondaires d'ARN avec ou sans pseudonoeuds. Selon une approche combinatoire, nous concevons différents modèles de ces structures que nous étudions sous deux aspects. D'une part, nous définissons des modèles de génération aléatoire qui nous permettent de définir une mesure permettant une meilleure reconnaissance des structures biologiques. D'autre part, grâce à des codages appropriés et des bijections vers des langages représentés par des grammaires non-contextuelles, nous dénombrons les structures composant l'espace de prédiction des algorithmes exacts de prédiction de structures secondaires avec pseudonoeuds. La première partie concerne des modèles aléatoires de structures d'ARN sans pseudonoeuds. Nous montrons que ces structures aléatoires constituent une source de bruit pertinente lorsqu'il s'agit de déterminer si les logiciels de comparaison de structures attribuent un meilleur score à des comparaisons entre structures issues de la même famille d'ARN qu'à des alignements entre structures réelles et aléatoires. Nous comparons ensuite la sensibilité et la spécificité de RNAdistance, un programme de comparaison de structures, selon l'usage du score "brut" ou bien de la Z-valeur de ce score. Nous calculons plusieurs Z-valeurs selon différents modèles de structures aléatoires. Nous montrons que la Z-valeur calculée à partir d'un modèle de Markov améliore la détection des ARN de grande taille tandis que la Z-valeur calculée à partir d'un modèle basé sur des grammaires pondérées améliore la détection des ARN de petite taille. Nous nous intéressons ensuite, dans une deuxième partie, aux algorithmes de prédiction de structure secondaire avec pseudonoeuds. Nous complètons tout d'abord la classification de Condon et al. en décrivant les structures par leur graphe de cohérence et nous caractérisons également la restriction planaire de la classe de Rivas et Eddy. Nous étudions ensuite le compromis entre complexité des algorithmes existant et la taille de leur espace de prédiction. Nous dénombrons les structures en les codant par des mots de langages algébriques. Nous en déduisons alors des formules asymptotiques de dénombrement. Nous mettons aussi en évidence une bijection entre la classe de Lyngsø et Pedersen et des cartes planaires ainsi qu'une bijection entre la classe des pseudonoeuds indifférenciés, que nous avons introduite, et les arbres ternaires. Nous montrons alors que les différences de compléxité observées des algorithmes de prédiction ne sont pas toujours justifiées par la taille de l'espace de prédiction. A partir de ces grammaires, nous concevons des algorithmes efficaces de génération aléatoire, uniforme ou non uniforme contrôlée, de structures d'ARN avec pseudonoeuds.
|
134 |
Complexité Implicite de Lambda-Calculs ConcurrentsMadet, Antoine 06 December 2012 (has links) (PDF)
Contrôler la consommation en ressources des programmes informatiques est d'importance capitale, non seulement pour des raisons de performance, mais aussi pour des questions de sécurité quand par exemple certains systèmes mobiles ou embarqués disposent de quantités limitées de ressources. Dans cette thèse, nous développons des critères statiques pour contrôler la consommation en ressources de programmes concurrents d'ordre supérieur. Nous prenons comme point de départ le cadre des Logiques Light qui a été étudié afin de contrôler la complexité de programmes fonctionnels d'ordre supérieur au moyen de la correspondance preuves-programmes. La contribution de cette thèse est d'étendre ce cadre aux programmes concurrents d'ordre supérieur. Plus généralement, cette thèse s'inscrit dans le domaine de la complexité implicite qui cherche à caractériser des classes de complexité par des principes logiques ou des restrictions de langage. Les critères que nous proposons sont purement syntaxiques et sont développés graduellement afin de contrôler le temps de calcul des programmes de plus en plus finement: dans un premier temps nous montrons comment garantir la terminaison des programmes (temps fini), puis nous montrons comment garantir la terminaison des programmes en temps élémentaire, et enfin nous montrons comment garantir la terminaison des programmes en temps polynomial. Nous introduisons également des systèmes de types tels que les programmes bien typés terminent en temps borné et retournent des valeurs. Enfin, nous montrons que ces systèmes de types capturent des programmes concurrents intéressants qui itèrent des fonctions produisant des effets de bord sur des structures de données inductives. Dans la dernière partie, nous étudions une méthode sémantique alternative afin de contrôler la consommation en ressources de programmes impératifs d'ordre supérieur. Cette méthode est basée sur la réalisabilité quantitative de Dal Lago et Hofmann et permet d'obtenir plusieurs bornes de complexité de manière uniforme. Cette dernière partie est un travail en collaboration avec Aloïs Brunel.
|
135 |
PROBLÈMES COMBINATOIRES EN CONFIGURATION DES LIGNES DE FABRICATION : ANALYSE DE COMPLEXITÉ ET OPTIMISATIONKovalev, Sergey 23 November 2012 (has links) (PDF)
L'objectif de la thèse est de créer et développer de nouvelles méthodes de résolution efficaces des problèmes combinatoires en configuration des lignes de fabrication. Deux problèmes ont été particulièrement étudiés: le problème d'équilibrage et de choix d'équipement pour des lignes dédiées et le problème de minimisation des coûts de changements de séries pour des lignes multi-produits. Une solution du premier problème consiste en une affectation admissible des ressources à un nombre de stations à déterminer de sorte que le coût total soit minimal. Afin de résoudre ce problème, nous l'avons réduit au problème de partition d'ensemble et l'avons résolu par des heuristiques gloutonnes et une méthode exacte de génération de contraintes. Les expérimentations sur différentes instances ont montré que la nouvelle approche de résolution surclasse les approches antérieures de la littérature en termes de qualité de solution et de temps de calcul. Pour le second problème deux critères sont considérés lexicographiquement : la minimisation du nombre de stations et la minimisation du coût de changement de séries. Nous avons examiné successivement les cas d'exécution parallèle et séquentielle des opérations. Des solutions approchées ont été trouvées par des heuristiques gloutonnes. Ensuite, nous avons proposé deux modèles de programmation linéaire en nombres entiers (PLNE) afin de trouver le nombre de stations minimal et ensuite d'obtenir le coût de changement de séries minimal. Les résultats des expérimentations sur ces nouveaux problèmes se sont avérés prometteurs à la fois en termes de qualité de solution et de temps de calcul.
|
136 |
Algorithmique rapide pour les problèmes de tournées et d'ordonnancementToussaint, Hélène 23 July 2010 (has links) (PDF)
Dans le cadre de cette thèse, nous nous intéressons à la modélisation et à la résolution de différents problèmes de tournées de véhicules et d'ordonnancement. Nous proposons des méthodes approchées qui ont pour but de résoudre les problèmes de manière rapide et efficace. Nous traitons cinq problèmes. Le premier est un problème d'ordonnancement de projet sous contrainte de ressources (RCPSP) que nous résolvons à l'aide d'un multiflot. Nous envisageons également des méthodes de résolution pour des extensions de ce problème (contraintes temporelles ou financieres). Le second est un problème de placement en deux dimensions. Nous utilisons une approche originale basée sur sa relaxation en RCPSP. Le troisième est le Stacker Crane Problem (SCP). Il fait parti des problèmes de pickup and delivery, dans lesquels des marchandises doivent être transportées depuis des origines vers des destinations à l'aide d'une flotte de véhicules. Dans le SCP, un unique véhicule de capacité unitaire est disponible. Nous proposons une résolution originale à base d'arbres pour le cas préemptif. Le quatrième est un problème de transport à la demande avec contraintes financières. Nous résolvons ce problème grâce à une heuristique d'insertion et une technique de propagation de contraintes. Le cinquième mêle problème de tournées et placement en deux dimensions. Il s'agit du 2L-CVRP dans lequel des colis doivent être livrés à des clients. Nous proposons un schéma GRASPxELS pour ce problème. Des résultats expérimentaux montrent la pertinence des approches proposées.
|
137 |
Le processus de décision dans les systèmes complexes : une analyse d'une intervention systémiqueBérard, Céline January 2009 (has links) (PDF)
L'objectif de cette thèse est de contribuer à une meilleure compréhension des processus de décision dans les systèmes complexes, en analysant comment les interventions systémiques produisent des changements dans le processus décisionnel mis en oeuvre par les individus. Plus précisément, la recherche consiste à analyser les effets potentiels de l'utilisation d'un modèle systémique par les décideurs, tant sur les activités constitutives du processus de décision, que sur ses dimensions, tout en prenant en considération les déterminants susceptibles d'exercer une influence. Elle s'appuie sur une expérimentation basée sur un cas décisionnel simulé, qui porte sur le système de la propriété intellectuelle des innovations biotechnologiques: les sessions expérimentales consistent en des entretiens menés auprès de décideurs politiques et l'intervention systémique concerne l'utilisation d'un modèle de simulation par la dynamique des systèmes. Les résultats suggèrent: 1) une progression multiple, cumulative, conjonctive et récurrente; 2) une démarche décisionnelle incrémentale, à multiples perspectives et créative; 3) une multiplicité d'acteurs impliqués, ayant des intérêts et des rôles diversifiés 4) des rationalités politique, limitée, contextuelle, voire sociocognitive. De plus, les résultats montrent qu'en situation d'intervention systémique, les décideurs tendent à considérer plus d'éléments d'analyse et de disciplines scientifiques lors de leur analyse décisionnelle, et à impliquer plus d'acteurs tant à l'interne qu'à l'externe.
|
138 |
Efficient generation of the ideals of a poset in Gray code orderAbdo, Mohamed January 2010 (has links) (PDF)
Pruesse et Ruskey ont présenté un algorithme pour la génération de leur code Gray pour les idéaux d'un poset (ensemble partiellement ordonné) où deux idéaux adjacents diffèrent par un ou deux éléments. Leur algorithme fonctionne en temps amorti de O(n) par idéal. Squire a présenté une récurrence pour les idéaux d'un poset qui lui a permis de trouver un algorithme pour générer ces idéaux en temps amorti de O(log n) par idéal, mais pas en code Gray. Nous utilisons la récurrence de Squire pour trouver un code Gray pour les idéaux d'un poset, où deux idéaux adjacents diffèrent par un ou deux éléments. Dans le pire des cas, notre algorithme a la même complexité que celle de l'algorithme de Pruesse et Ruskey et dans les autres cas, sa complexité est meilleure que celle de leur algorithme et se rapproche de celle de l'algorithme de Squire. Squire a donné une condition pour obtenir cette complexité. Nous avons trouvé une condition moins restrictive que la sienne. Cette condition nous a permis d'améliorer la complexité de notre algorithme. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Poset, Extension linéaire, Cycle hamiltonien, Code Gray, Algorithme, Complexité.
|
139 |
SYSTÈMES D'INFORMATION ET GESTION DES ORGANISATIONS : APPORT DE LA CONNAISSANCE-CLIENT DANS LA GRANDE DISTRIBUTION, ÉTUDES DE CAS.Van Berten, Philippe 22 May 2007 (has links) (PDF)
Les Systèmes d'Information apportent aux organisations des outils de gestion des connaissances dans un environnement de plus en plus complexe. Le paradigme de complexité sert de cadre épistémologique à la systémique pour construire un modèle de valorisation des flux informationnels circulant entre le Système d'Information, l'Organisation et son environnement.<br />Appliqué à la grande distribution, ce modèle propose de transformer les informations issues des programmes de fidélisation pour produire de la connaissance client.<br />Une étude de cas, menées auprès des deux principales enseignes de ce secteur en Europe, valide le modèle issu de cette recherche; il modifie déjà chez l'une d'elles le modèle d'entreprise en usage dans ce secteur depuis quarante ans.
|
140 |
Computation naturelle, beaucoup de bruit pour rienBaudot, Pierre 29 September 2006 (has links) (PDF)
Le codage de l'information environnementale par le cerveau est sujet à d'intenses débats tant au niveau de son implémentation biologique (propriété fonctionnelles) qu'au niveau de sa variabilité et de sa précision. Cette étude se base sur des enregistrements intracellulaires in-vivo des réponses des neurones du cortex visuel primaire à des stimuli de complexité variable incluant des images naturelles animées par des mouvements oculaires. Nous montrons que les propriétés fonctionnelles sont générées par la récurrence corticale, notamment par la balance excitation/inhibition exprimée au travers d'une grande diversité de combinatoire de sélectivité fonctionnelle des entrées synaptiques. En condition naturelle avec mouvement des yeux, nous montrons que le code est reproductible, binaire/temporel et que l'analyse corticale se traduit par une réduction des redondances présentes dans les entrées. Les interactions ou contrôles de gain corticaux, dont le profile temporel biphasique sculpte temporellement les réponses corticales, augmentent la précision temporelle et la reproductibilité du code. Nous proposons (en discussion) une ébauche de modèle statistique général d'adaptation et d'auto-organisation consistant en la maximisation de l'information mutuelle entre le système et son environnement. Ce modèle, basé sur une décomposition microscopique de l'entropie en ordre de redondance, est suffisant pour rendre compte des propriétés singulières de l'organisation du vivant (incluant la cognition) tel que sa reproductibilité, sa diversité, et son optimalité (en terme de codage).
|
Page generated in 0.2745 seconds