• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 11
  • 6
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 50
  • 19
  • 9
  • 9
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Localisation et cartographie visuelles simultanées en milieu intérieur et en temps réel / Visual SLAM in indoor environment

Decrouez, Marion 07 May 2013 (has links)
La thèse s'inscrit dans le domaine de la vision par ordinateur. Il s'agit, dans un environnement intérieur inconnu, partiellement connu ou connu de trouver la position et l'orientation d'une camera mobile en temps réel à partir d'une séquence vidéo prise par cette même camera. Le sujet implique également la reconstruction 3D de l'environnement. Les algorithmes de vision seront implémentés et testés sur des plateformes massivement parallèles. Processing the video sequence of a indoor camera in motion we have to find the position and angle of the camera in real time. We will use a single prime lens camera. It may involve an unknown, partially known or well known environment. A big part of the computation is the 3D reconstruction of the scene. The algorithms used to locate the camera will be implemented and tested on GPU. / In this thesis, we explore the problem of modeling an unknown environment using monocular vision for localization applications. We focus in modeling dynamic indoor environments. Many objects in indoor environments are likely to be moved. These movements significantly affect the structure and appearance of the environment and disrupt the existing methods of visual localization. We present in this work a new approach for modeling the environment and its evolution with time. We define explicitly the scene as a static structure and a set of dynamic objects. The object is defined as a rigid entity that a user can take, move and that is visually detectable. First, we show how to automatically discover new objects in a dynamic environment. Existing methods of visual localization simply ignore the inconsistencies due to changes in the scene. We aim to analyze these changes to extract additional information. Without any prior knowledge, an object is a set of points with coherent motion relative to the static structure of the scene. We combine two methods of visual localization to compare various explorations in the same environment taken at different time. The comparison enables to detect objects that have moved between the two shots. For each object, a geometric model and an appearance model are learned. Moreover, we extend the scene model while updating the metrical map and the topological map of the static structure of the environment. Object discovery using motion is based on a new algorithm of multiple structures detection in an image pair. Given a set of correspondences between two views, the method based on RANSAC extracts the different structures corresponding to different model parameterizations seen in the data. The method is applied to homography estimation to detect planar structures and to fundamental matrix estimation to detect structures that have been shifted one from another. Our approach for dynamic scene modeling is applied in a new formulation of place recognition to take into account the presence of dynamic objects in the environment. The model of the place consists in an appearance model of the static structure observed in that place. An object database is learned from previous observations in the environment with the method of object discovery using motion. The place recognition we propose detects the dynamic objects seen in the place and rejects the false detection due to these objects. The different methods described in this dissertation are tested on synthetic and real data. Qualitative and quantitative results are presented throughout the dissertation.
32

Rám přívěsu Variant pro přepravu kabelových cívek / Trailer frame VARIANT for transport cabel spools

Buchta, Vladislav January 2010 (has links)
Thesis deals with the truck frame VARIANT 252. The main task is to analyze weighting states, setting the values for weigting states. Strength control of the frame by using the Finite Element Method (FEM). And each subsequent frame adjustments based on the results of FEM. Part of this thesis is also the drawing documentation provided a modified frame assembly and each modified components.
33

Costume Design and Production for City of AngelsBook by Larry Gelbart, Music by Cy Coleman, and Lyrics by David Zippel

Cagle, Natalie Kenra 18 September 2015 (has links)
No description available.
34

Visualisation interactive de données hétérogènes pour l'amélioration des dépenses énergétiques du bâtiment / Interactive visualisation of heterogenous data for building energy efficiency

Lange, Benoît 07 November 2012 (has links)
De nos jours, l'économie d'énergie est devenue un enjeu crucial. Les bâtiments des différents pays ont été identifiés comme étant une source importante de perte énergétique. De ce constat a émergé le projet RIDER (Reasearch for IT Driven EneRgy efficiency). Ce projet a pour objectif de développer un système d'information innovant permettant d'optimiser la consommation énergétique d'un bâtiment ou d'un groupe de bâtiments. Ce système est basé sur des composants logiciels, notamment une solution générale de modélisation du bâtiment, une solution de fouille de données, une solution de visualisation. Chacun de ces composants est destiné à améliorer le modèle de données de RIDER. Dans ce manuscrit, nous nous intéressons à la partie visualisation et nous proposons donc une solution d'amélioration du modèle par cette méthode. Dans ces travaux, nous allons présenter les solutions que nous avons mises en place pour modéliser le bâtiment ; pour ce faire nous avons utilisé une solution à base de particules dont la valeur est interpolée par rapport aux différents capteurs du bâtiment. Nous présentons également les différentes solutions mises en place pour visualiser les données et les méthodes d'interactions pour améliorer le modèle du bâtiment. Enfin, notre dernière partie présente les résultats de notre solution au travers de deux jeux de données. / Energy efficiencies are became a major issue. Building from any country have been identified as gap of energy, building are not enough insulated and energy loss by this struc- ture represent a major part of energy expenditure. RIDER has emerged from this viewpoint, RIDER for Research for IT Driven EneRgy efficiency. This project has goal to develop a new kind of IT system to optimize energy consumption of buildings. This system is based on a component paradigm, which is composed by a pivot model, a data warehouse with a data mining approach and a visualization tool. These two last components are developed to improve content of pivot model.In this manuscript, our focus was on the visualization part of the project. This manuscript is composed in two parts: state of the arts and contributions. Basic notions, a visualization chapter and a visual analytics chapter compose the state of the art. In the contribution part, we present data model used in this project, visualization proposed and we conclude with two experimentations on real data.
35

Renormalisations dans l'espace réel de type Ma-Dasgupta pour divers systèmes désordonnés

Monthus, Cecile 01 June 2004 (has links) (PDF)
Les procédures de renormalisation dans l'espace réel de type Ma-Dasgupta permettent d'étudier des systèmes désordonnés gouvernés par des points fixes de fort désordre. Après une présentation générale des idées physiques importantes et des méthodes de calcul, ce mémoire décrit les résultats explicites exacts que ces procédures de renormalisation permettent d'obtenir dans différents modèles unidimensionnels, classiques ou quantiques, dynamiques ou statiques. La majeure partie du mémoire est consacrée à des modèles de physique statistique, avec notamment (i) la dynamique hors équilibre d'une particule dans un potentiel Brownien ou dans un paysage de pièges aléatoires, (ii) la dynamique de croissance de domaines et l'équilibre thermodynamique des cha\^(\i)nes de spins désordonnées classiques, (iii) la transition de délocalisation d'un polymère aléatoire à une interface. La dernière partie du mémoire concerne deux cha\^(\i)nes de spins quantiques désordonnées qui présentent une transition de phase à température nulle en fonction du désordre, à savoir (a) la cha\^(\i)ne de spin $S=1$ antiferromagnétique aléatoire (b) la cha\^(\i)ne d'Ising avec couplages et champs transverses aléatoires.
36

METHODOLOGIE DE DEVELOPPEMENT ET DE MODELISATION UML DES SYSTEMES D'ACQUISITION ET DE TRAITEMENT EN TEMPS REEL POUR LES EXPERIENCES DE PHYSIQUE DES HAUTES ENERGIES

Anvar, Shebli 13 September 2002 (has links) (PDF)
La complexité croissante des systèmes d'acquisition et de traitement en temps réel (TDAQ) pour les expériences de physique des hautes énergies appelle à une évolution ad hoc des outils de développement. Dans cet ouvrage, nous traitons de l'articulation entre la spécification de principe des systèmes TDAQ et leur conception/réalisation sur une plateforme matérielle et logicielle concrète. Notre travail repose sur la définition d'une méthodologie de développement des systèmes TDAQ qui réponde aux problématiques de développements particulières à ces systèmes. Il en résulte la spécification détaillée d'un « canevas méthodologique » basé sur le langage UML, destiné à encadrer un processus de développement. L'usage de ce canevas méthodologique UML doit permettre la mise en place progressive d'un canevas « maison », c'est-à-dire un atelier de développement comprenant des composants réutilisables et des éléments d'architecture génériques adaptés aux applications TDAQ. L'ouvrage s'articule autour de 4 sections principales. La section II est dévolue à la caractérisation et à l'évolution des systèmes TDAQ. En section III, nous nous intéressons aux technologies pertinentes pour notre problématique, notamment les techniques de réutilisation logicielle telles les motifs récurrents (design patterns) et les canevas (frameworks), avec une orientation en faveur des domaines du temps réel et de l'embarqué. Notre apport conceptuel spécifique est exposé en section IV, où nous procédons notamment à la spécification détaillée, formalisée et exemples à l'appui, de notre modèle de développement. Enfin, nous terminons notre propos en section V en évoquant le projet de R&D MORDICUS de mise en œuvre concrète de notre canevas méthodologique UML, ainsi que les développements récents de l'OMG (Object Management Group) sur l'architecture orientée modèles (Model Driven Architecture), particulièrement en résonance avec notre travail.
37

Machine Observation of the Direction of Human Visual Focus of Attention

Gourier, Nicolas 19 October 2006 (has links) (PDF)
Les personnes dirigent souvent leur attention vers les objets avec lesquels ils interagissent. Une premiere etape que doivent franchir les systemes informatiques pour s'adapter aux utilisateurs et ameliorer leurs interactions avec eux est de localiser leur emplacement, et en particulier la position de leur tete dans l'image. L'etape suivante est de suivre leur foyer d'attention. C'est pourquoi nous nous interessons aux techniques permettant d'estimer et de suivre le regard des utilisateurs, et en particulier l'orientation de leur tete.<br /><br />Cette these presente une approche completement automatique et independante de l'identite de la personne pour estimer la pose d'un visage a partir d'images basse resolution sous conditions non contraintes. La methode developpee ici est evaluee et validee avec une base de donnees d'images echantillonnee. Nous<br />proposons une nouvelle approche a 2 niveaux qui utilise les apparences globales et locales pour estimer l'orientation de la tete. Cette methode est simple, facile a implementer et robuste a l'occlusion partielle. Les images de visage sont normalisees en<br />taille dans des images de faible resolution a l'aide d'un<br />algorithme de suivi de visage. Ces imagettes sont ensuite projetees dans des memoires autoassociatives et entraineespar la regle d'apprentissage de Widrow-Hoff. Les memoires autoassociatives ne necessitent que peu de parametres et evitent l'usage de couches cachees, ce qui permet la sauvegarde et le chargement de prototypes de poses du visage humain. Nous obtenons une premiere estimation de l'orientation de la tete sur des sujets connus et inconnus.<br /><br />Nous cherchons ensuite dans l'image les traits faciaux saillants du visage pertinents pour chaque pose. Ces traits sont decrits par des champs receptifs gaussiens normalises a l'echelle intrinseque. Ces descripteurs ont des proprietes interessantes et sont moins couteux que les ondelettes de Gabor. Les traits saillants du visage detectes par les champs receptifs gaussiens motivent la construction d'un modele de graphe pour chaque pose. Chaque noeud du graphe peut etre deplace localement en fonction de la saillance du point facial qu'il represente. Nous recherchons parmi les poses voisines de celle trouvee par les memoires autoassociatives le graphe qui correspond le mieux a l'image de test. La pose correspondante est selectionnee comme la pose du visage de la personne sur l'image. Cette methode n'utilise pas d'heuristique, d'annotation manuelle ou de connaissances prealables sur le visage et peut etre adaptee pour estimer la pose d'autres objets deformables.
38

Etude en temps réel du processus dextraction de la Tagitinine C en fonction des caractéristiques physico-chimiques du CO2 supercritique à laide de fibres optiques couplant un spectrophotomètre IRTF à un extracteur à fluide supercritique Real time monitoring of the extraction process of Tagitinin C according to the physicochemical properties of supercritical CO2 by means of optical fibers coupling a FT-IR spectrometer and a supercritical fluid extractor

Ziemons, Eric 24 November 2006 (has links)
Lextraction par fluide supercritique fait partie des nouvelles techniques de préparation déchantillons solides qui ont émergé au cours de ces dernières années. Elle constitue une alternative intéressante aux techniques classiques dextraction liquide-solide car le pouvoir solvant du fluide supercritique est ajustable, non seulement par la température, mais aussi par la pression. Lextraction par le CO2 supercritique de la tagitinine C, lactone sesquiterpénique photo sensible à lactivité anti-inflammatoire, anti-malarique et anticancéreuse à partir des parties aériennes de Tithonia diversifolia constituait une application intéressante de ce procédé et a été sélectionnée comme molécule cible dans le cadre de ce travail. Son optimisation a impliqué des dosages répétés de lanalyte dont la vibration délongation de la fonction diénone absorbe intensément à des fréquences particulières dans le domaine de linfrarouge. Aussi, avons-nous tout dabord développé et validé, dans la première partie de ce travail, une technique IRTF danalyse en différé sélective, rapide, non destructrice et sensible fondée sur ses propriétés. Les différents paramètres (température, pression, quantité de CO2, granulométrie de léchantillon) influençant le rendement dextraction de lanalyte ont pu être étudiés à cette occasion. Dans les conditions optimales, nous avons montré que lextraction par le CO2 supercritique extrayait rapidement et avec une meilleure sélectivité la tagitinine C tout en conservant un taux de récupération comparable aux techniques classiques dextraction. Parallèlement à ces travaux et compte tenu de la photo-dégradation de la tagitinine C en tagitinine F, la formation de complexes dinclusion avec la β, 2,6-di-O-méthyle-β et la -cyclodextrine a été investiguée. Différentes techniques ont été employées pour caractériser les complexes formés au niveau de la stchiométrie, de la constante de formation et de la structure. Aucun effet photo-protecteur significatif na été démontré avec la β et la -cyclodextrine. En revanche, nous avons mis en évidence une diminution de la vitesse de la photo-dégradation en présence de la 2,6-di-O-méthyle-β-cyclodextrine. Malheureusement, celle-ci reste trop limitée pour envisager lutilisation de cette cyclodextrine pour éviter la dégradation de la tagitinine C lors de son exposition à la lumière directe. Dans la dernière partie de notre travail, nous nous sommes plus particulièrement focalisés sur linterfaçage EFSC/IRTF qui constituait un indéniable défi. Le développement de linterfaçage a été réalisé à laide de fibres optiques en chalcogène darsenic entre un extracteur à fluide supercritique et un spectrophotomètre IR et a ainsi permis deffectuer le dosage en ligne de la tagitinine C dans le CO2 supercritique après passage de celui-ci au travers dune cartouche dextraction contenant la matrice végétale. Par ailleurs, le développement de cet outil répond parfaitement aux nouvelles approches (Process and Analytical Technology) préconisées par la FDA. Le processus dextraction de lanalyte a pu dès lors être étudié de manière approfondie et en temps réel en fonction des caractéristiques physico-chimiques du fluide supercritique et de la durée de lextraction. Lutilisation de la vibration délongation CH comme marqueur a permis de mettre en évidence lobtention dextraits de composition variable qui pourront être utilisés directement dans des études defficacité thérapeutique. Enfin, la méthode dextraction et de dosage en ligne de la tagitinine C a fait lobjet dune validation poussée selon la nouvelle approche faisant appel aux profils dexactitude dans un intervalle de dosage allant 500 à 2500 µg. Sur la base des différents profils dexactitude obtenus, le modèle de régression linéaire a été choisi pour décrire la relation concentration-réponse. En effet, ce modèle présentait des valeurs de biais relatif inférieures à 2%, des valeurs de coefficient de variation ne dépassant pas 4% et des limites de tolérance comprises dans les limites dacceptation de ±15% sur toute la gamme de concentration. De plus, le modèle de régression linéaire était en parfaite adéquation avec la méthode des ajouts dosés. In the last two decades, supercritical fluid extraction processing with carbon dioxide has emerged as an alternative to the conventional solvent extractions of solid matrices and especially for the extraction of natural products for foods and medicines. Indeed, carbon dioxide is an inert, inexpensive, widely available, odourless, environment-friendly solvent and its solvent strength can be tuned by changing the pressure and temperature conditions. In the first part of our work, supercritical fluid extraction of tagitinin C, a known sesquiterpene lactone which shows significant antiplasmodial and antiproliferative activity, was investigated using an off-line FTIR method for the determination of this compound in the aerial parts of Tithonia diversifolia. Different parameters as temperature, pressure, solvent mass and sample granulometry governing the supercritical fluid extraction process were optimised. Finally, we demonstrated that the optimised supercritical fluid extraction gave extraction yields comparable to those of the classical methods of extraction but with an improvement of the selectivity and a reduction of the extraction time. At the same time, the formation of inclusion complexes of tagitinin C with β-, 2,6-di-O-methyl-β and -cyclodextrin was investigated according to its photochemical conversion into tagitinin F. Several techniques were used to characterize the tagitininC/CyD complexes in order to understand and to interpret the data obtained from the photochemical study. This letter mainly showed that the photodegradation rate of tagitinin C was slowed in presence of 2,6-di-O-methyl-β-cyclodextrin while no significant effect was observed in presence of β- and -cyclodextrin. The second part of our work was devoted to the SFE/FTIR interfacing which was a great challenge. This interface was constructed from a stainless steel cross cell equipped with chalcogenide-glass infrared fibers. This hyphenated system allowed to determine on-line tagitinin C in supercritical CO2 after this one flowed through the extraction vessel containing the plant material. Consequently, the extraction process of the analyte was studied thoroughly and in real time according to the physicochemical characteristics of the supercritical fluid and to the extraction time. The use of the CH stretching vibration as tracer allowed to highlight the composition change of extracts which could be used directly in studies of therapeutic efficiency. In addition, the development of this tool answers perfectly the new approaches (Process and Analytical Technology) recommended by the FDA. Finally, the extraction and on-line determination method of tagitinin C was successfully validated using a new approach based on accuracy profiles as decision tool. On this basis, a linear regression model was chosen for the calibration curve. Regarding trueness, precision and accuracy, mean measured values were close to the theoretical concentrations (lower than 1.6%) and the RSD values were relatively low (less than 4% for the middle of the range). Moreover, the method was found to be accurate as the two-sided 95 % beta-expectation tolerance interval did not exceed the acceptance limits of 85 and 115 % on the concentration range from 500 to 2500 µg.
39

Framing the Feature Film : Multi-Reel Feature Film and American Film Culture in the 1910s

Frykholm, Joel January 2009 (has links)
This dissertation addresses the breakthrough of the multi-reel feature film in the United States, and the significance of this process within the wider context of the American film industry and culture in the 1910s. The purpose is to provide a new, and more comprehensive analytical framing of the topic, and to enhance our understanding of how a new central commodity, i.e. the multi-reel feature film, changed the conditions for film exhibition and reception. The introduction links the breakthrough of the multi-reel feature film to an array of film-historical transformations unfolding in the US around the same time. A critical assessment of previous scholarly work dealing with the early feature is also provided. Part I analyzes how the breakthrough of the multi-reel feature film was negotiated within the trade and by contemporary commentators. The result is a multi-perspective framing of the topic that highlights the complexity of these cultural negotiations and the uncertainty over cinema’s possible futures. Part II shifts attention to film culture and film exhibition in Philadelphia around 1914. The objective of this case study, largely based on newspaper sources, is to examine how the increasingly common multi-reel feature film was integrated into and/or changed the existing film culture in the city. The main conclusion is that experimentation and diversity rather than smooth transitions characterized the local response to the emergence of features. Part III deepens the investigation of local diversity by offering a case study of one particular film: The Spoilers (Selig Polyscope Co., 1914). The conditions of the film’s historical reception are outlined, and particular attention is given to the film’s role in the Americanization of the feature film market.
40

Conception et évaluation des performances d'un système informatique de commande

Sagot, Yves 13 April 1977 (has links) (PDF)
ON S'INTERESSE ICI AU TRAITEMENT AUTOMATIQUE DE L'INFORMATION DANS LA CONDUITE EN TEMPS REEL DE PROCESSUS INDUSTRIELS, AVIONIQUES... PAR DES SYSTEMES INFORMATIQUES DE COMMANDE

Page generated in 0.0385 seconds