Spelling suggestions: "subject:"indo""
671 |
Analyse temps-fréquence par la transformée en S et interprétation des signaux de fluxmétrie laser Doppler: applications au diagnostic cliniqueAssous, Saïd 12 1900 (has links) (PDF)
aLa technique de fluxmétrie laser Doppler (LDF), est basée sur l'élargissement spectral d'une lumière monochromatique, qui interagit avec les globules rouges en mouvement dans le tissu. La densité spectrale de puissance de la lumière rétro-diffusée peut être utilisée pour l'estimation de la perfusion microvasculaire du tissu. L'objectif principal de ce travail est l'exploration de l'information contenue dans ce signal pour comprendre les phénomènes physiologiques qui se manifestent dans la microcirculation et de proposer des solutions d'aide au diagnostic des pathologies correspondantes. Le problème d'aide à la décision peut se présenter en étapes d'extraction de caractéristiques, réduction de dimensions et reconnaissance de formes. La représentation du signal est une étape cruciale pour l'interprétation et la prise de décision. Dans ce travail, la transformée en S, une représentation temps-fréquence linéaire qui surpasse le problème de la transformée de Fourier à fenêtre glissante de longueur fixe et qui corrige aussi la notion de phase dans la transformée en ondelettes pour l'analyse des signaux non stationnaires, est présentée. Cette transformée fournit un espace très convenable pour l'extraction de caractéristiques et la localisation en temps et en fréquences de l'information discriminante dans le signal LDF. Cette nouvelle approche a permis, entre autres, d'analyser les cinq fréquences caractéristiques contenues dans les signaux LDF et d'apporter une contributionà l'appréhension des signaux d'hypérémie réactionnelle. Du fait que les représentations temps-fréquence linéaires ont une dimension élevée, leur succès repose sur une forme appropriée de réduction e dimensions. La décomposition en valeurs singuliµeres des coe±cients du plan temps-fréquence se montre très prometteuse pour garder les informations pertinentes du signal et rejeter celles qui ne le sont pas. Ses vecteurs singuliers reflètent le comportement spectral dans le temps des différentes activités physiologiques présentes dans le signal de fluxmétrie laser Doppler.
|
672 |
Formalisation et automatisation de YAO, générateur de code pour l'assimilation variationnelle de donnéesNardi, Luigi 08 March 2011 (has links) (PDF)
L'assimilation variationnelle de données 4D-Var est une technique très utilisée en géophysique, notamment en météorologie et océanographie. Elle consiste à estimer des paramètres d'un modèle numérique direct, en minimisant une fonction de coût mesurant l'écart entre les sorties du modèle et les mesures observées. La minimisation, qui est basée sur une méthode de gradient, nécessite le calcul du modèle adjoint (produit de la transposée de la matrice jacobienne avec le vecteur dérivé de la fonction de coût aux points d'observation). Lors de la mise en œuvre de l'AD 4D-Var, il faut faire face à des problèmes d'implémentation informatique complexes, notamment concernant le modèle adjoint, la parallélisation du code et la gestion efficace de la mémoire. Afin d'aider au développement d'applications d'AD 4D-Var, le logiciel YAO qui a été développé au LOCEAN, propose de modéliser le modèle direct sous la forme d'un graphe de flot de calcul appelé graphe modulaire. Les modules représentent des unités de calcul et les arcs décrivent les transferts des données entre ces modules. YAO est doté de directives de description qui permettent à un utilisateur de décrire son modèle direct, ce qui lui permet de générer ensuite le graphe modulaire associé à ce modèle. Deux algorithmes, le premier de type propagation sur le graphe et le second de type rétropropagation sur le graphe permettent, respectivement, de calculer les sorties du modèle direct ainsi que celles de son modèle adjoint. YAO génère alors le code du modèle direct et de son adjoint. En plus, il permet d'implémenter divers scénarios pour la mise en œuvre de sessions d'assimilation.Au cours de cette thèse, un travail de recherche en informatique a été entrepris dans le cadre du logiciel YAO. Nous avons d'abord formalisé d'une manière plus générale les spécifications deYAO. Par la suite, des algorithmes permettant l'automatisation de certaines tâches importantes ont été proposés tels que la génération automatique d'un parcours "optimal" de l'ordre des calculs et la parallélisation automatique en mémoire partagée du code généré en utilisant des directives OpenMP. L'objectif à moyen terme, des résultats de cette thèse, est d'établir les bases permettant de faire évoluer YAO vers une plateforme générale et opérationnelle pour l'assimilation de données 4D-Var, capable de traiter des applications réelles et de grandes tailles.
|
673 |
Competitive strategies in Thai cellular telephone marketTosmai Puenpatom. January 1999 (has links)
Thesis (master's)--Thammasat University, 1999. / Includes bibliographical references (leaves 125-128).
|
674 |
Decision making methods for water resources management under deep uncertaintyRoach, Thomas Peter January 2016 (has links)
Substantial anthropogenic change of the Earth’s climate is modifying patterns of rainfall, river flow, glacial melt and groundwater recharge rates across the planet, undermining many of the stationarity assumptions upon which water resources infrastructure has been historically managed. This hydrological uncertainty is creating a potentially vast range of possible futures that could threaten the dependability of vital regional water supplies. This, combined with increased urbanisation and rapidly growing regional populations, is putting pressures on finite water resources. One of the greatest international challenges facing decision makers in the water industry is the increasing influences of these “deep” climate change and population growth uncertainties affecting the long-term balance of supply and demand and necessitating the need for adaptive action. Water companies and utilities worldwide are now under pressure to modernise their management frameworks and approaches to decision making in order to identify more sustainable and cost-effective water management adaptations that are reliable in the face of uncertainty. The aim of this thesis is to compare and contrast a range of existing Decision Making Methods (DMMs) for possible application to Water Resources Management (WRM) problems, critically analyse on real-life case studies their suitability for handling uncertainties relating to climate change and population growth and then use the knowledge generated this way to develop a new, resilience-based WRM planning methodology. This involves a critical evaluation of the advantages and disadvantages of a range of methods and metrics developed to improve on current engineering practice, to ultimately compile a list of suitable recommendations for a future framework for WRM adaptation planning under deep uncertainty. This thesis contributes to the growing vital research and literature in this area in several distinct ways. Firstly, it qualitatively reviews a range of DMMs for potential application to WRM adaptation problems using a set of developed criteria. Secondly, it quantitatively assesses two promising and contrasting DMMs on two suitable real-world case studies to compare highlighted aspects derived from the qualitative review and evaluate the adaptation outputs on a practical engineering level. Thirdly, it develops and reviews a range of new potential performance metrics that could be used to quantitatively define system resilience to help answer the water industries question of how best to build in more resilience in future water resource adaptation planning. This leads to the creation and testing of a novel resilience driven methodology for optimal water resource planning, combining optimal aspects derived from the quantitative case study work with the optimal metric derived from the resilience metric investigation. Ultimately, based on the results obtained, a list of suitable recommendations is compiled on how to improve the existing methodologies for future WRM planning under deep uncertainty. These recommendations include the incorporation of more complex simulation models into the planning process, utilisation of multi-objective optimisation algorithms, improved uncertainty characterisation and assessments, an explicit robustness examination and the incorporation of additional performance metrics to increase the clarity of the strategy assessment process.
|
675 |
Sistemas de organização do conhecimento para domínios complexos: abordagem a canções populares na web semântica utilizando propriedades fuzzyDe Santis, Rodrigo 07 July 2016 (has links)
Submitted by Priscilla Araujo (priscilla@ibict.br) on 2016-09-30T17:07:52Z
No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
desantis_2016_tese.pdf: 4644779 bytes, checksum: bf709310edfd2cd0392be42f6d1b1301 (MD5) / Made available in DSpace on 2016-09-30T17:07:52Z (GMT). No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
desantis_2016_tese.pdf: 4644779 bytes, checksum: bf709310edfd2cd0392be42f6d1b1301 (MD5)
Previous issue date: 2016-07-07 / A ciência contemporânea vem se deparando com a necessidade de novas formulações que
sejam capazes de superar as restrições decorrentes do pensamento científico tradicional, de
inspiração cartesiana e que postula: a separação clara e inequívoca dos objetos do mundo; a
possibilidade de divisão do todo em partes menores; a resolução de problemas a partir das
partes menores; a garantia de recomposição da totalidade a partir da junção das partes. Teorias
do pensamento complexo vem sendo desenvolvidas como alternativas a este modelo
simplificador, no intuito de evidenciar as suas limitações e oferecer métodos de abordagem
compatíveis com este novo paradigma. Esta pesquisa investiga as bases para concepção de um
sistema de organização do conhecimento capaz de lidar com domínios complexos,
identificando as matrizes de sua formulação em autores como conde de Buffon e
Ranganathan. A superação das dicotomias e da noção teleológica do conhecimento é
investigada a partir de uma abordagem semiótica, fundamentada na representação simbólica
do conhecimento, a partir dos trabalhos de Ernst Cassirer e baseia-se na noção de fronteira em
Gilles Deleuze e de dispositivo em Michel Foucault. O método complexo proposto por Edgar
Morin fundamenta a base metodológica para aplicação do esquematismo tensivo proposto por
Viggo Brøndal. A formulação de um sistema de organização do conhecimento capaz de
abordar domínios complexos baseia-se em um duplo deslocamento: o primeiro consiste no
reconhecimento da primazia da recuperação em relação à representação em sistemas de
organização do conhecimento, hipótese defendida desde a década de 1950 por pesquisadores
como Jesse Shera e posteriormente por Brian Vickery. O segundo deslocamento diz respeito à
unidade básica do conhecimento tratável, que deixa de ser a noção de conceito – hierárquico,
dicotômico, com fronteiras bem definidas e cujo pertencimento é reduzido a uma relação
binária, de valor verdadeiro ou falso –, para se tornar o dispositivo infocomunicacional – com
suas relações imanentes, potencialmente desdobráveis ao infinito, com fronteiras sobrepostas
e mutuamente interferentes, e o pertencimento mensurável em graus. O recurso a ferramentas
e linguagens matemáticas e tecnológicas, como a lógica fuzzy e a web semântica,
possibilitaram a consecução prática deste tipo de abordagem, que foi aplicada empiricamente no domínio da canção popular brasileira. Este domínio complexo, dotado de uma linguagem
própria (a linguagem da canção) permitiu verificar a insuficiência das abordagens
tradicionais, baseadas em metadados ou métodos colaborativos de classificação e mostrou-se
adequado ao permitir uma abordagem multidimensional do conhecimento, considerando-o
não como produto encerrado em si, mas enfatizando seu caráter dinâmico enquanto processo
cuja construção é de natureza social e histórica. / Contemporary science has been faced with the need of new approaches, able to overcome the
constraints resulting from the traditional scientific thought of cartesian inspiration and that
postulates: the clear and unambiguous separation of objects in the world; the possibility of
division of the hole into smaller parts; the problem solving from the smaller parts; the
guarantee of full recovery of the totality from the connection of the parties. Theories of
complex thinking has been developed as alternatives to this simplifying model in order to
show its limitations and offer approach methods compatible with this new paradigm. This
research investigates the basis for the conception of an knowledge organization systems
capable of dealing with complex domains, identifying the foundation of its formulation in
authors as comte de Buffon and Ranganathan. The overcoming of dichotomies and of the
teleological notion of knowledge is investigated from a semiotic approach, based on symbolic
representation of knowledge, from Ernst Cassirer works, and based on the use of the notion of
boundaries, by Gilles Deleuze, and of dispositif, by Michel Foucault. The complex method
proposed by Edgar Morin is the methodological approach for the application of tensive
schematism proposed by Viggo Brøndal. The formulation of an organization knowledge
system able to address complex domains is based on a double displacement: the first one
consist in the recognition of the primacy of recovery in relation to the representation in
organizational systems of knowledge, hypothesis advocated since the 1950s by researchers as
Jesse Shera and later by Brian Vickery. The second displacement concerns to the basic unit of
treatable knowledge, that is no longer the notion of concept – hierarchical, dichotomous, with
its well defined boundaries and which belonging is reduced to a binary relationship, of true or
false value - to become the infocommunicational dispositif – with its immanent relations,
potentially roll away to infinity, with overlapping and mutually interfering boundaries and
with its belonging measurable in degrees. The use of mathematical and technological tools
and languages, such as fuzzy logic and the semantic web, enabled the practical achievement
of this approach, which was empirically applied in the domain of Brazilian popular songs.
This complex domain, endowed with its own language (the song’s language) has shown the
inadequacy of traditional approaches based on metadata or collaborative classification methods and revealed to be successful by allowing a multi-dimensional approach of
knowledge, considering it not as a finished product in itself, but emphasizing its dynamic
character as process which the construction is of social and historical nature.
|
676 |
Vibration Analysis of Cracked Composite Bending-torsion Beams for Damage DiagnosisWang, Kaihong 03 December 2004 (has links)
An analytical model of cracked composite beams vibrating in coupled bending-torsion is developed. The beam is made of fiber-reinforced composite with fiber angles in each ply aligned in the same direction. The crack is assumed open. The local flexibility concept is implemented to model the open crack and the associated compliance matrix is derived. The crack introduces additional boundary conditions at the crack location and these effects in conjunction with those of material properties are investigated. Free vibration analysis of the cracked composite beam is presented. The results indicate that variation of natural frequencies in the presence of a crack is affected by the crack ratio and location, as well as the fiber orientation. In particular, the variation pattern is different as the magnitude of bending-torsion coupling changes due to different fiber angles. When bending and torsional modes are essentially decoupled at a certain fiber angle if there is no crack, the crack introduces coupling to the initially uncoupled bending and torsion.
Based on the crack model, aeroelastic characteristics of an unswept composite wing with an edge crack are investigated. The cracked composite wing is modeled by a cracked composite cantilever and the inertia coupling terms are included in the model. An approximate solution on critical flutter and divergence speeds is obtained by Galerkin's method in which the fundamental mode shapes of the cracked wing model in free vibration are used. It is shown that the critical divergence/flutter speed is affected by the elastic axis location, the inertia axis location, fiber angles, and the crack ratio and location. Moreover, model-based crack detection (size and location) by changes in natural frequencies is addressed. The Cawley-Adams criterion is implemented and a new strategy in grouping frequencies is proposed to reduce the probability of measurement errors. Finally, sensitivity of natural frequencies to model parameter uncertainties is investigated. Uncertainties are modeled by information-gap theory and represented with a collection of nested sets. Five model parameters that may have larger uncertainties are selected in the analysis, and the frequency sensitivities to uncertainties in the five model parameters are compared in terms of two immunity functions. / Ph. D.
|
677 |
Faire avec les ordres documentaires : pratiques info-documentaires, culture écrite et travail scolaire chez des collégiens / Doing with the "ordre of documents" : information practices, written culture and school work among secondary school pupilsMicheau, Béatrice 03 December 2015 (has links)
Cette thèse a pour but de comprendre comment le « numérique » interroge à la fois les processus de légitimation et de délégitimation des pratiques info-documentaires et la manière dont ces processus s'inscrivent dans des objets, des lieux et des dispositifs. Ce travail prend place au sein de l'institution scolaire qui, implicitement ou explicitement, transmet et constitue des normes communes de ce que sont les « bonnes pratiques » de production, de circulation et de réception des textes, des documents et des savoirs. Il s'agit de faire une étude ethno-sémiotique, au sein des espaces de la classe et du CDI, dans deux collèges, des manières de rechercher, de lire, d'exploiter, de faire circuler et de produire des documents. Les dévoilements du numérique font réapparaître la nécessité de comprendre les pratiques et les compétences qui permettent de qualifier l'information, au-delà de méthodes canoniques forgées par les médiateurs (citer ses sources, respecter le droit d'auteur, ne pas copier-coller etc.), et au-delà des signes de la valeur, hérités du modèle de la bibliographie et de leur fétichisation dans la référence (éditeur, auteur, notice de catalogage etc.). Cette thèse repose sur une approche de la culture info-documentaire comme un composite, et sur la compréhension du numérique comme un phénomène social qui redéfinit les géographies et les temporalités de la production, circulation et réception des textes, des savoirs et de leurs documents. Cette approche permet alors de renouveler les questionnements sur la notion de valeur info-documentaire. Entreprise de dévoilement des normes de la culture écrite, ce travail de recherche montre l’enchâssement des pratiques, des objets et des valeurs à l’œuvre dans les processus info-communicationnels du partage des savoirs. Comprendre aujourd’hui les résistances des élèves aux discours du « bien se documenter » passe par une théorie de l’économie politique du document à l’ère numérique, et une approche anthropologique des pratiques ordinaires des textes et des documents, l’une se nourrissant de l’autre. / This thesis aims to understand how the "digital" interrogates both the processes of legitimization and delegitimization of informationnal practices and how these processes are embedded in objects, places and devices. This work takes place within the school institution which transmits implicitly or explicitly, common standards for "good practices" of production, circulation and reception of texts, documents and knowledge. This is an ethno-semiotic study within the class and the library school’s spaces in two medium schools to observe and analyze the ways to search, read, operate, circulate and produce documents. The digital unveils the need to understand the practices and skills to qualify the information beyond canonical methods forged by mediators (citing sources, respect copyright, do not copy and paste etc.), and beyond signs of value inherited from the model of the bibliography and their fetishization in reference (publisher, author, cataloging record etc.). This thesis is based on an anthropological approach of information literacy and of digital as a social phenomenon that redefines geographies and temporalities of texts, knowledge and their documents. This approach allows to renew questions about the concept of document value. This research demonstrates the entrenchment of practices, objects and values at work in the communicational processes of knowledge sharing. Understanding today resistances of pupils to follow the rules of a « good research » requires a political theory of the economy of the document to the digital age and an anthropological approach of the common practices of texts and documents, one is feeding the other.
|
678 |
Réseau de neurones dynamique perceptif - Application à la reconnaissance de structures logiques de documentsRangoni, Yves 09 November 2007 (has links) (PDF)
L'extraction de structures logiques de documents est un défi du fait de leur complexité inhérente et du fossé existant entre les observations extraites de l'image et leur interprétation logique. La majorité des approches proposées par la littérature sont dirigées par le modèle et ne proposent pas de solution générique pour des documents complexes et bruités. Il n'y a pas de modélisation ni d'explication sur les liens permettant de mettre en relation les blocs physiques et les étiquettes logiques correspondantes. L'objectif de la thèse est de développer une méthode hybride, à la fois dirigée par les données et par le modèle appris, capable d'apprentissage et de simuler la perception humaine pour effectuer la tâche de reconnaissance logique. Nous avons proposé le Réseau de Neurones Dynamique Perceptif qui permet de s'affranchir des principales limitations rencontrées dans les précédentes approches. Quatre points principaux ont été développés : - utilisation d'une architecture neuronale basée sur une représentation locale permettant d'intégrer de la connaissance à l'intérieur du réseau. La décomposition de l'interprétation est dépliée à travers les couches du réseau et un apprentissage a été proposé pour déterminer l'intensité des liaisons ; - des cycles perceptifs, composés de processus ascendants et descendants, accomplissent la reconnaissance. Le réseau est capable de générer des hypothèses, de les valider et de détecter les formes ambigües. Un retour de contexte est utilisé pour corriger les entrées et améliorer la reconnaissance ; - un partitionnement de l'espace d'entrée accélérant la reconnaissance. Des sous-ensembles de variables sont créés automatiquement pour alimenter progressivement le réseau afin d'adapter la quantité de travail à fournir en fonction de la complexité de la forme à reconnaître ; - l'intégration de la composante temporelle dans le réseau permettant l'intégration de l'information de correction pendant l'apprentissage afin de réaliser une reconnaissance plus adéquate. L'utilisation d'un réseau à décalage temporel permet de tenir compte de la variation des entrées après chaque cycle perceptif tout en ayant un fonctionnement très proche de la version statique.
|
679 |
Usagers & Recherche d'InformationChevalier, Max 24 February 2011 (has links) (PDF)
La recherche d'information est confrontée à une variété de plus en plus importante tant en termes d'usagers, de tâches à remplir, d'outils.... Face à cette hétérogénéité de nombreux travaux, s'attachent à améliorer la recherche d'information par le biais d'approches adaptatives, de systèmes de recommandation... Mes travaux s'inscrivent dans ce cadre et apportent un éclairage essentiellement porté sur l'usager et ses activités et plus particulièrement sur la recherche d'information. Les résultats correspondent à 3 angles d'investigation nous permettant d'aborder cette problématique de l'hétérogénéité en Recherche d'Information.
|
680 |
Architecture de sécurité dynamique pour systèmes multiprocesseurs intégrés sur pucePorquet, Joël 13 December 2010 (has links) (PDF)
Cette thèse présente l'approche multi-compartiment, qui autorise un co-hébergement sécurisé et flexible de plusieurs piles logicielles autonomes au sein d'un même système multiprocesseur intégré sur puce. Dans le marché des appareils orientés multimédia, ces piles logicielles autonomes représentent généralement les intérêts des différentes parties prenantes. Ces parties prenantes sont multiples (fabricants, fournisseurs d'accès, fournisseurs de contenu, utilisateurs, etc.) et ne se font pas forcément confiance entre elles, d'où la nécessité de trouver une manière de les exécuter ensemble mais avec une certaine garantie d'isolation. Les puces multimédia étant matériellement fortement hétérogènes -- peu de processeurs généralistes sont assistés par une multitude de processeurs ou coprocesseurs spécialisés -- et à mémoire partagée, il est difficile voire impossible de résoudre cette problématique uniquement avec les récentes techniques de co-hébergement (virtualisation). L'approche multi-compartiment consiste en un nouveau modèle de confiance, plus flexible et générique que l'existant, qui permet à des piles logicielles variées de s'exécuter simultanément et de façon sécurisée sur des plateformes matérielles hétérogènes. Le cœur de l'approche est notamment composé d'un mécanisme global de protection, responsable du partage sécurisé de l'unique espace d'adressage et logiquement placé dans le réseau d'interconnexion afin de garantir le meilleur contrôle. Cette approche présente également des solutions pour le partage des périphériques, notamment des périphériques ayant une capacité DMA, entre ces piles logicielles. Enfin, l'approche propose des solutions pour le problème de redirection des interruptions matérielles, un aspect collatéral au partage des périphériques. Les principaux composants des solutions matérielles et logicielles proposées sont mis en œuvre lors de la conception d'une plateforme d'expérimentation, sous la forme d'un prototype virtuel. Outre la validation de l'approche, cette plateforme permet d'en mesurer le coût, en termes de performance et de surface de silicium. Concernant ces deux aspects, les résultats obtenus montrent que le coût est négligeable.
|
Page generated in 0.0363 seconds