• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 32
  • 8
  • 5
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 104
  • 23
  • 16
  • 15
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

IVORA (Image and Computer Vision for Augmented Reality) : Color invariance and correspondences for the definition of a camera/video-projector system / IVORA (Image et Vision par Ordinateur pour la Réalité Augmentée) : Invariance colorimétrique et correspondances pour la définition d'un système projecteur/caméra

Setkov, Aleksandr 27 November 2015 (has links)
La Réalité Augmentée Spatiale (SAR) vise à superposer spatialement l'information virtuelle sur des objets physiques. Au cours des dernières décennies ce domaine a connu une grande expansion et est utilisé dans divers domaines, tels que la médecine, le prototypage, le divertissement etc. Cependant, pour obtenir des projections de bonne qualité, on doit résoudre plusieurs problèmes, dont les plus importants sont la gamme de couleurs réduite du projecteur, la lumière ambiante, la couleur du fond, et la configuration arbitraire de la surface de projection dans la scène. Ces facteurs entraînent des distorsions dans les images qui requièrent des processus de compensation complémentaires.Les projections intelligentes (smart projections) sont au cœur des applications de SAR. Composées d'un dispositif de projection et d'un dispositif d'acquisition, elles contrôlent l'aspect de la projection et effectuent des corrections à la volée pour compenser les distorsions. Bien que les méthodes actives de Lumière Structurée aient été utilisées classiquement pour résoudre ces problèmes de compensation géométrique, cette thèse propose une nouvelle approche non intrusive pour la compensation géométrique de plusieurs surfaces planes et pour la reconnaissance des objets en SAR s'appuyant uniquement sur la capture du contenu projeté.Premièrement, cette thèse étude l'usage de l'invariance couleur pour améliorer la qualité de la mise en correspondance entre primitives dans une configuration d'acquisition des images vidéoprojetées. Nous comparons la performance de la plupart des méthodes de l'état de l'art avec celle du descripteur proposé basé sur l'égalisation d'histogramme. Deuxièmement, pour mieux traiter les conditions standard des systèmes projecteur-caméra, deux ensembles de données de captures de projections réelles, ont été spécialement préparés à des fins expérimentales. La performance de tous les algorithmes considérés est analysée de façon approfondie et des propositions de recommandations sont faites sur le choix des algorithmes les mieux adaptés en fonction des conditions expérimentales (paramètres image, disposition spatiale, couleur du fond...). Troisièmement, nous considérons le problème d'ajustement multi-surface pour compenser des distorsions d'homographie dans les images acquises. Une combinaison de mise en correspondance entre les primitives et de Flux Optique est proposée afin d'obtenir une compensation géométrique plus rapide. Quatrièmement, une nouvelle application en reconnaissance d'objet à partir de captures d'images vidéo-projetées est mise en œuvre. Finalement, une implémentation GPU temps réel des algorithmes considérés ouvre des pistes pour la compensation géométrique non intrusive en SAR basée sur la mise en correspondances entre primitives. / Spatial Augmented Reality (SAR) aims at spatially superposing virtual information on real-world objects. Over the last decades, it has gained a lot of success and been used in manifold applications in various domains, such as medicine, prototyping, entertainment etc. However, to obtain projections of a good quality one has to deal with multiple problems, among them the most important are the limited projector output gamut, ambient illumination, color background, and arbitrary geometric surface configurations of the projection scene. These factors result in image distortions which require additional compensation steps.Smart-projections are at the core of PAR applications. Equipped with a projection and acquisitions devices, they control the projection appearance and introduce corrections on the fly to compensate distortions. Although active structured-light techniques have been so far the de-facto method to address such problems, this PhD thesis addresses a relatively new unintrusive content-based approach for geometric compensation of multiple planar surfaces and for object recognition in SAR.Firstly, this thesis investigates the use of color-invariance for feature matching quality enhancement in projection-acquisition scenarios. The performance of most state-of-the art methods are studied along with the proposed local histogram equalization-based descriptor. Secondly, to better address the typical conditions encountered when using a projector-camera system, two datasets of real-world projections were specially prepared for experimental purposes. Through a series of evaluation frameworks, the performance of all considered algorithms is thoroughly analyzed, providing several inferences on that which algorithms are more appropriate in each condition. Thirdly, this PhD work addresses the problem of multiple-surface fitting used to compensate different homography distortions in acquired images. A combination of feature matching and Optical Flow tracking is proposed in order to achieve a more low-weight geometric compensation. Fourthly, an example of new application to object recognition from acquired projections is showed. Finally, a real-time implementation of considered methods on GPU shows prospects for the unintrusive feature matching-based geometric compensation in SAR applications.
72

Multi-Agent Trajectory Planning for Nonholonomic UAVs

Maass, Oscar, Vallgren, Theodor January 2024 (has links)
The rising interest in autonomous systems has emphasized the significance of effective path and motion planning, particularly in coordinating multiple Unmanned Areal Vehicles (UAVs) in missions. An important research field is the problem of Multi-Agent Path Finding (MAPF), in which the objective is to find collision-free paths for multiple agents simultaneously. Various algorithms, categorized into optimal, bounded sub-optimal, and unbounded sub-optimal solvers, have been investigated in order to address MAPF problems. However, recent attention has shifted towards MAPF with kinematic constraints, particularly focusing on nonholonomic agents like cars and fixed-wing UAVs. These nonholonomic agents, distinguished by their motion constraints, require specialized methods for trajectory planning.  To investigate the potential of MAPF with nonholonomic agents, two MAPF algorithms have been implemented, incorporating the kinematic constraints of a fixed-wing UAV. The first algorithm is a UAV-like Conflict-Based Search (CBS) algorithm, belonging to the optimal MAPF solver class, and is based on a Car-like CBS algorithm. The second algorithm is a Prioritized Planner, belonging to the search-based MAPF solver class. Both algorithms utilize a common single-agent search algorithm, the Spatiotemporal Hybrid A* (SHA*), which has been enhanced to incorporate a kinematic bicycle model. This enhancement allows for a greater variety of motions, creates feasible paths for fixed-wing UAVs, and enables control over acceleration and steering rates. A comparison of the two MAPF algorithms was conducted for three different map instances. Furthermore, the use of weighted heuristics, resampling and distance-based priority have been implemented and simulated with the Prioritized Planner. Additionally, two methods of simultaneous arrival have been implemented using the UAV-like CBS, where agents have a fixed time of arrival and a variable time of arrival. The results from the simulations confirm the trade-offs between both MAPF algorithms concerning solution quality, success rate and runtime. The UAV-like CBS is capable of finding solutions of higher quality, while the Prioritized Planner is faster at finding solutions and more efficient for an increasing number of agents. However, the performance of the two algorithms varied significantly, depending on the scenario. The thesis concludes that both algorithms can be utilized for MAPF with nonholonomic fixed-wing UAVs, and that the UAV-like CBS is the best choice for a lower amount of agents, while the Prioritized Planner is preferable for a higher amount of agents. The priority of the agents has been shown to be important, and by allowing resampling, the success rate of the Prioritized Planner can be increased significantly. Additionally, simultaneous arrival at the goal position can be achieved optimally for the UAV-like CBS by solving the problem backwards.
73

L'introduction et la diffusion de la technologie du bronze en Syrie-Mésopotamie, (IVe-Ier millénaires): genèse d'un artisanat

Verardi, Virginia 24 February 2005 (has links)
L’arrivée d’un nouveau matériau et d’un nouvel artisanat s’accompagne toujours de profondes transformations dans la société qui l’adopte. Notre étude porte sur l’introduction de la technologie du bronze en Syrie-Mésopotamie, sur sa diffusion progressive et sur ses incidences sociales durant toute l’histoire proche-orientale du quatrième au second millénaire. Cet artisanat, consistant, dans sa définition simple, en la mise au point d’un alliage de cuivre et d’étain, est arrivé très tôt dans cette région pourtant dénuée de tout minerai. Les vestiges archéologiques et les données textuelles révèlent la rapidité des transformations qui en découlèrent, touchant la structure sociale et les mentalités et s’accompagnant de nouvelles conceptions dans l’organisation de l’habitat. / Doctorat en philosophie et lettres, Orientation langue et littérature / info:eu-repo/semantics/nonPublished
74

Functionnal organization of complex behavioral processes / Organisation fonctionnelle des processus complexes de comportement

Perdikis, Dionysios 29 June 2011 (has links)
Selon des études comportementales, les comportements complexes sont des processus multi-échelles, souvent composés de sous-éléments (unités fonctionnelles ou primitives). Cette thèse propose des architectures fonctionnelles afin de représenter la structure dynamique des unités fonctionnelles ainsi que celle des comportements multi-échelles résultants. Dans un premier temps, des unités fonctionnelles sont modélisées comme des flux structurés de faible dimension dans l'espace de phase (modes de fonctionnement). Des dynamiques supplémen-taires (signaux opérationnels) opèrent sur ces modes de fonctionnement faisant émerger des comportements complexes et sont classifiés selon la séparation entre leur échelle temporelle et celle des modes. Ensuite, des mesures de complexité, appliquées sur des architectures dis-tinctes composant un mouvement simple, révèlent un compromis entre la complexité des modes de fonctionnement et celle des signaux opérationnels. Celui-ci dépend de la séparation entre leurs échelles temporelles et soutient l'efficacité des architectures utilisant des modes non triviaux. Dans un deuxième temps, une architecture pour le comportement séquentiel (ici l'écriture) est construite via le couplage des modes de fonctionnement (réalisant des lettres) et des signaux opérationnels, ceux-ci beaucoup plus lents ou beaucoup plus rapides. Ainsi, l'importance des interactions entre les échelles temporelles pour l'organisation du comporte-ment est illustrée. Enfin, les contributions des modes et des signaux sur la sortie de l'architec-ture sont déterminées. Ceci semble être uniquement possible grâce à l'analyse du flux de phase (c'est-à-dire, non pas à partir des trajectoires dans l'espace de phase ni des séries temporelles). / Behavioural studies suggest that complex behaviours are multiscale processes, which may be composed of elementary ones (units or primitives). Traditional approaches to cognitive mod-elling generally employ reductionistic (mostly static) representations and computations of simplistic dynamics. The thesis proposes functional architectures to capture the dynamical structure of both functional units and the composite multiscale behaviours. First, a mathe-matical formalism of functional units as low dimensional, structured flows in phase space is introduced (functional modes). Second, additional dynamics (operational signals), which act upon functional modes for complex behaviours to emerge, are classified according to the separation between their characteristic time scale and the one of modes. Then, complexity measures are applied to distinct architectures for a simple composite movement and reveal a trade off between the complexities of functional modes and operational signals, depending on their time scale separation (in support of the control effectiveness of architectures employing non trivial modes). Subsequently, an architecture for serial behaviour (along the example of handwriting) is demonstrated, comprising of functional modes implementing characters, and operational signals much slower (establishing a mode competition and ‘binding’ modes into sequences) or much faster (as meaningful perturbations). All components being coupled, the importance of time scale interactions for behavioural organization is illustrated. Finally, the contributions of modes and signals to the output are recovered, appearing to be possible only through analysis of the output phase flow (i.e., not from trajectories in phase space or time).
75

Quantum coin flipping and bit commitment : optimal bounds, pratical constructions and computational security / Pile-ou-face et mise-en-gage de bit quantique : bornes optimales, constructions pratiques et sécurité calculatoire

Chailloux, André 24 June 2011 (has links)
L'avènement de l'informatique quantique permet de réétudier les primitives cryptographiques avec une sécurité inconditionnelle, c'est à dire sécurisé même contre des adversaires tout puissants. En 1984, Bennett et Brassard ont construit un protocole quantique de distribution de clé. Dans ce protocole, deux joueurs Alice et Bob coopèrent pour partager une clé secrète inconnue d'une tierce personne Eve. Ce protocole a une sécurité inconditionnelle et n'a pasd'équivalent classique.Dans ma thèse, j'ai étudié les primitives cryptographiques à deux joueurs où ces joueurs ne se font pas confiance. J'étudie principalement le pile ou face quantique et la mise-en-gage quantique de bit. En informatique classique, ces primitivessont réalisables uniquement avec des hypothèses calculatoires, c'est-à-dire en supposant la difficulté d'un problème donné. Des protocoles quantiques ont été construits pour ces primitives où un adversaire peut tricher avec une probabilité constante strictement inférieure à 1, ce qui reste impossible classiquement. Néanmoins, Lo et Chau ont montré l'impossibilité de créer ces primitives parfaitement même en utilisant l'informatique quantique. Il reste donc à déterminer quelles sont les limites physiques de ces primitives.Dans une première partie, je construis un protocole quantique de pile ou face où chaque joueur peut tricher avec probabilité au plus 1/racine(2) + eps pour tout eps > 0. Ce résultat complète un résultat de Kitaev qui dit que dans un jeu de pile ou face quantique, un joueur peut toujours tricher avec probabilité au moins 1/racine(2). J'ai également construit un protocole de mise-en-gage de bit quantique optimal où un joueur peut tricher avec probabilité au plus 0,739 + eps pour tout eps > 0 puis ai montré que ce protocole est en fait optimal. Finalement, j'ai dérivé des bornes inférieures et supérieures pour une autre primitive: la transmission inconsciente, qui est une primitive universelle.Dans une deuxième partie, j'intègre certains aspects pratiques dans ces protocoles. Parfois les appareils de mesure ne donnent aucun résultat, ce sont les pertes dans la mesure. Je construis un protocole de lancer de pièce quantique tolérant aux pertes avec une probabilité de tricher de 0,859. Ensuite, j'étudie le modèle dispositif-indépendant où on ne suppose plus rien sur les appareils de mesure et de création d'état quantique.Finalement, dans une troisième partie, j'étudie ces primitives cryptographiques avec un sécurité computationnelle. En particulier, je fais le lien entre la mise en gage de bit quantique et les protocoles zero-knowledge quantiques. / Quantum computing allows us to revisit the study of quantum cryptographic primitives with information theoretic security. In 1984, Bennett and Brassard presented a protocol of quantum key distribution. In this protocol, Alice and Bob cooperate in order to share a common secret key k, which has to be unknown for a third party that has access to the communication channel. They showed how to perform this task quantumly with an information theoretic security; which is impossible classically.In my thesis, I study cryptographic primitives with two players that do not trust each other. I study mainly coin flipping and bit commitment. Classically, both these primitives are impossible classically with information theoretic security. Quantum protocols for these primitives where constructed where cheating players could cheat with probability stricly smaller than 1. However, Lo, Chau and Mayers showed that these primitives are impossible to achieve perfectly even quantumly if one requires information theoretic security. I study to what extent imperfect protocols can be done in this setting.In the first part, I construct a quantum coin flipping protocol with cheating probabitlity of 1/root(2) + eps for any eps > 0. This completes a result by Kitaev who showed that in any quantum coin flipping protocol, one of the players can cheat with probability at least 1/root(2). I also constructed a quantum bit commitment protocol with cheating probability 0.739 + eps for any eps > 0 and showed that this protocol is essentially optimal. I also derived some upper and lower bounds for quantum oblivious transfer, which is a universal cryptographic primitive.In the second part, I study some practical aspects related to these primitives. I take into account losses than can occur when measuring a quantum state. I construct a Quantum Coin Flipping and Quantum Bit Commitment protocols which are loss-tolerant and have cheating probabilities of 0.859. I also construct these primitives in the device independent model, where the players do not trust their quantum device. Finally, in the third part, I study these cryptographic primitives with information theoretic security. More precisely, I study the relationship between computational quantum bit commitment and quantum zero-knowledge protocols.
76

Two-player interaction in quantum computing : cryptographic primitives & query complexity / Interaction à deux joueurs en informatique quantique : primitives cryptographiques et complexité en requêtes

Magnin, Loïck 05 December 2011 (has links)
Cette thèse étudie deux aspects d'interaction entre deux joueurs dans le modèle du calcul et de la communication quantique.Premièrement, elle étudie deux primitives cryptographiques quantiques, des briques de base pour construire des protocoles cryptographiques complexes entre deux joueurs, comme par exemple un protocole d'identification. La première primitive est la ``mise en gage quantique". Cette primitive ne peut pas être réalisée de manière inconditionnellement sûre, mais il possible d'avoir une sécurité lorsque les deux parties sont soumis à certaines contraintes additionnelles. Nous étudions cette primitive dans le cas où les deux joueurs sont limités à l'utilisation d'états et d'opération gaussiennes, un sous-ensemble de la physique quantique central en optique, donc parfaitement adapté pour la communication via fibres optiques. Nous montrons que cette restriction ne permet malheureusement pas la réalisation de la mise en gage sûre. Pour parvenir à ce résultat, nous introduisons la notion de purification intrinsèque, qui permet de contourner l'utilisation du théorème de Uhlman, en particulier dans le cas gaussien. Nous examinons ensuite une primitive cryptographique plus faible, le ``tirage faible à pile ou face'', dans le modèle standard du calcul quantique. Carlos Mochon a donné une preuve d'existence d'un tel protocole avec un biais arbitrairement petit. Nous donnons une interprétation claire de sa preuve, ce qui nous permet de la simplifier et de la raccourcir grandement.La seconde partie de cette thèse concerne l'étude de méthodes pour prouver des bornes inférieures dans le modèle de la complexité en requête. Il s'agit d'un modèle de complexité central en calcul quantique dans lequel de nombreux résultats majeurs ont été obtenus. Dans ce modèle, un algorithme ne peut accéder à l'entrée uniquement en effectuant des requêtes sur chacun des bits de l'entrée. Nous considérons une extension de ce modèle dans lequel un algorithme ne calcule pas une fonction, mais doit générer un état quantique. Cette généralisation nous permet de comparer les différentes méthodes pour prouver des bornes inférieures dans ce modèle. Nous montrons d'abord que la méthode par adversaire ``multiplicative" est plus forte que la méthode ``additive". Nous montrons ensuite une réduction de la méthode polynomiale à la méthode multiplicative, ce qui permet de conclure à la supériorité de la méthode par adversaire multiplicative sur toutes les autres méthodes. Les méthodes par adversaires sont en revanche souvent difficiles à utiliser car elles nécessite le calcul de normes de matrices de très grandes tailles. Nous montrons comment l'étude des symétries d'un problème simplifie grandement ces calculs. Enfin, nous appliquons ces formules pour prouver la borne inférieure optimale du problème INDEX-ERASURE un problème de génération d'état quantique lié au célèbre problème GRAPH-ISOMORPHISM. / This dissertation studies two different aspects of two-player interaction in the model of quantum communication and quantum computation.First, we study two cryptographic primitives, that are used as basic blocks to construct sophisticated cryptographic protocols between two players, e.g. identification protocols. The first primitive is ``quantum bit commitment''. This primitive cannot be done in an unconditionally secure way. However, security can be obtained by restraining the power of the two players. We study this primitive when the two players can only create quantum Gaussian states and perform Gaussian operations. These operations are a subset of what is allowed by quantum physics, and plays a central role in quantum optics. Hence, it is an accurate model of communication through optical fibers. We show that unfortunately this restriction does not allow secure bit commitment. The proof of this result is based on the notion of ``intrinsic purification'' that we introduce to circumvent the use of Uhlman's theorem when the quantum states are Gaussian. We then examine a weaker primitive, ``quantum weak coin flipping'', in the standard model of quantum computation. Mochon has showed that there exists such a protocol with arbitrarily small bias. We give a clear and meaningful interpretation of his proof. That allows us to present a drastically shorter and simplified proof.The second part of the dissertation deals with different methods of proving lower bounds on the quantum query complexity. This is a very important model in quantum complexity in which numerous results have been proved. In this model, an algorithm has restricted access to the input: it can only query individual bits. We consider a generalization of the standard model, where an algorithm does not compute a classical function, but generates a quantum state. This generalization allows us to compare the strength of the different methods used to prove lower bounds in this model. We first prove that the ``multiplicative adversary method'' is stronger than the ``additive adversary method''. We then show a reduction from the ``polynomial method'' to the multiplicative adversary method. Hence, we prove that the multiplicative adversary method is the strongest one. Adversary methods are usually difficult to use since they involve the computation of norms of matrices with very large size. We show how studying the symmetries of a problem can largely simplify these computations. Last, using these principles we prove the tight lower bound of the INDEX-ERASURE problem. This a quantum state generation problem that has links with the famous GRAPH-ISOMORPHISM problem.
77

Système décisionnel dynamique et autonome pour le pilotage d'un hélicoptère dans une situation d'urgence / Dynamic autonomous decision-support function for piloting a helicopter in emergency situations

Nikolajevic, Konstanca 03 March 2016 (has links)
Dans un contexte industriel aéronautique où les problématiques de sécurité constituent un facteur différentiateur clé, l’objectif de cette thèse est de répondre à la problématique ambitieuse de la réduction des accidents de type opérationnel. Les travaux de recherche s’inscrivent dans le domaine des systèmes d’alarmes pour l’évitement de collision qui ne font pas une analyse approfondie des solutions d’évitement par rapport à la situation de danger. En effet, les situations d’urgence en vol ne bénéficient pas à ce jour d’une représentation et d’un guide des solutions associées formels. Bien que certains systèmes d’assistance existent et qu’une partie de la connaissance associée aux situations d’urgence ait pu être identifiée, la génération dynamique d’une séquence de manœuvres sous fortes contraintes de temps et dans un environnement non connu à l’avance représente une voie d’exploration nouvelle. Afin de répondre à cette question et de rendre objective la notion de danger, les travaux de recherche présentés dans cette thèse mettent en confrontation la capacité d’évolution d’un aéronef dans son environnement immédiat avec une enveloppe physique devenant contraignante. Afin de mesurer ce danger, les travaux de recherche ont conduit à construire un module de trajectoires capable d’explorer l’espace en 3D. Cela a permis de tirer des enseignements en terme de flexibilité des manœuvres d’évitement possibles à l’approche du sol. De plus l’elicitation des connaissances des pilotes et des experts d’Airbus Helicopters (ancien Eurocopter) mis en situation d’urgence dans le cas d’accidents reconstitués en simulation a conduit à un ensemble de paramètres pour l’utilisation de la méthode multicritère PROMETHEE II dans le processus de prise de décision relatif au choix de la meilleure trajectoire d’évitement et par conséquent à la génération d’alarmes anti-collision. / In the aeronautics industrial context, the issues related to the safety constitute a highly differentiating factor. This PhD thesis addresses the challenge of operational type accident reduction. The research works are positioned and considered within the context of existing alerting equipments for collision avoidance, who don’t report a thorough analysis of the avoidance manoeuvres with respect to a possible threat. Indeed, in-flight emergency situations are various and do not all have a formal representation of escape procedures to fall back on. Much of operational accident scenarios are related to human mistakes. Even if systems providing assistance already exist, the dynamic generation of a sequence of manoeuvres under high constraints in an unknown environment remain a news research axis, and a key development perspective. In order to address this problematic and make the notion of danger objective, the research works presented in this thesis confront the capabilities of evolution of an aircraft in its immediate environment with possible physical constraints. For that purpose, the study has conducted to generate a module for trajectory generation in the 3D space frame, capable of partitioning and exploring the space ahead and around the aircraft. This has allowed to draw conclusions in terms of flexibility of escape manoeuvres on approach to the terrain. Besides, the elicitation of the Airbus Helicopters (former Eurocopter) experts knowledge put in emergency situations, for reconstituted accident scenarios in simulation, have permitted to derive a certain number of criteria and rules for parametrising the multicriteria method PROMETHEE II in the process for the relative decision-making of the best avoidance trajectory solution. This has given clues for the generation of new alerting rules to prevent the collisions.
78

The role of mathematics in first year students’ understanding of electricity problems in physics

Koontse, Reuben Double 04 1900 (has links)
Mathematics plays a pertinent role in physics. Students' understanding of this role has significant implications in their understanding of physics. Studies have shown that some students prefer the use of mathematics in learning physics. Other studies show mathematics as a barrier in students' learning of physics. In this study the role of mathematics in students' understanding of electricity problems was examined. The study undertakes a qualitative approach, and is based on an intepretivist research paradigm. A survey administered to students was used to establish students' expectations on the use of mathematics in physics. Focus group interviews were conducted with the students to further corroborate their views on the use of mathematics in physics. Copies of students' test scripts were made for analysis on students' actual work, applying mathematics as they were solving electricity problems. Analysis of the survey and interview data showed students' views being categorised into what they think it takes to learn physics, and what they think about the use of mathematics in physics. An emergent response was that students think that, problem solving in physics means finding the right equation to use. Students indicated that they sometimes get mathematical answers whose meaning they do not understand, while others maintained that they think that mathematics and physics are inseparable. Application of a tailor-made conceptual framework (MATHRICITY) on students work as they were solving electricity problems, showed activation of all the original four mathematical resources (intuitive knowledge, reasoning primitives, symbolic forms and interpretive devices). Two new mathematical resources were identified as retrieval cues and sense of instructional correctness. In general, students were found to be more inclined to activate formal mathematical rules, even when the use of basic or everyday day mathematics that require activation of intuitive knowledge elements and reasoning primitives, would be more efficient. Students' awareness of the domains of knowledge, which was a measure of their understanding, was done through the Extended Semantic Model. Students' awareness of the four domains (concrete, model, abstract, and symbolic) was evident as they were solving the electricity questions. The symbolic domain, which indicated students' awareness of the use of symbols to represent a problem, was the most prevalent. / Science and Technology Education / D. Phil. (Mathematics, Science and Technology Education (Physics Education)))
79

Contributions to the 3D city modeling : 3D polyhedral building model reconstruction from aerial images and 3D facade modeling from terrestrial 3D point cloud and images / Contributions à la modélisation 3D des villes : reconstruction 3D de modèles de bâtiments polyédriques à partir d'images aériennes et modélisation 3D de façades à partir de nuage de points 3D et d'images terrestres

Hammoudi, Karim 15 December 2011 (has links)
L'objectif principal de ce travail est le développement de recherches en modélisation 3D du bâti. En particulier, la recherche en reconstruction 3D de bâtiment est un sujet très développé depuis les années 90. Malgré tout, il paraît nécessaire de poursuivre les recherches dans cet axe étant données que les approches actuelles consacrées à la reconstruction 3D de bâtiment (bien qu'efficaces) rencontrent encore des difficultés en terme de généralisation, de cohérence et de précision. Par ailleurs, les récents développements des systèmes d'acquisitions de rues tel que les systèmes de cartographie mobile ouvrent de nouvelles perspectives d'amélioration de la modélisation des bâtiments dans le sens ou les données terrestres (très précises et résolus) peuvent être exploitées avec davantage de cohérence (en comparaison à l'aérien) pour enrichir les modèles de bâtiments au niveau des façades (la géométrie, la texture).Ainsi, des approches de modélisation aériennes et terrestres sont individuellement proposées. Au niveau aérien, nous décrivons une approche directe et dépourvu d'extraction et d'assemblage de primitives géométriques en vue de la reconstruction 3D de modèles polyédriques simples de bâtiments à partir d'un jeu d'images aériennes calibrées. Au niveau terrestre, plusieurs approches qui décrivent essentiellement un pipeline pour la modélisation 3D des façades urbaines sont proposées; à savoir, la segmentation et classification de nuage de rues urbaines, la modélisation géométrique des façades urbaines et le texturage des façades urbaines comportant des occultations causées par d'autres objets du mobilier urbains / The aim of this work is to develop research on 3D building modeling. In particular, the research in aerial-based 3D building reconstruction is a topic very developed since 1990. However, it is necessary to pursue the research since the actual approaches for 3D massive building reconstruction (although efficient) still encounter problems in generalization, coherency, accuracy. Besides, the recent developments of street acquisition systems such as Mobile Mapping Systems open new perspectives for improvements in building modeling in the sense that the terrestrial data (very dense and accurate) can be exploited with more performance (in comparison to the aerial investigation) to enrich the building models at facade level (e.g., geometry, texturing).Hence, aerial and terrestrial based building modeling approaches are individually proposed. At aerial level, we describe a direct and featureless approach for simple polyhedral building reconstruction from a set of calibrated aerial images. At terrestrial level, several approaches that essentially describe a 3D urban facade modeling pipeline are proposed, namely, the street point cloud segmentation and classification, the geometric modeling of urban facade and the occlusion-free facade texturing
80

Kelsen e Nietzsche: aproximações do pensamento sobre a gênese do processo de formação do direito

Carnio, Henrique Garbellini 16 December 2008 (has links)
Made available in DSpace on 2016-04-26T20:28:20Z (GMT). No. of bitstreams: 1 Henrique Garbellini Carnio.pdf: 985960 bytes, checksum: 42d78d1215a24045f62e9c94cde2d3d7 (MD5) Previous issue date: 2008-12-16 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The work has the purpose to investigate the genesis of the process of formation of the law. Recognizing the right while a human creation, a product of the language, the proposal aims for a genealogical study of the law that returns to the origins of its obscure senses. This return is ruled from the examination of the relations in the primitive communities that indicates the true polemics on the process of formation of the law. This study makes possible a rescue on the legal forms and in the conceptions of law itself, promoting means for his best understanding, critics and applicability. For this, the proposal claims a radical joining between two thinkers who apparently are distanced philosophically, but, however, are shown at least in this field, similar and complementary. Kelsen in the work Vergeltung und Kauslatität presenting his etnological study on the principle of retribution and of the causality, from the primitive communities and Nietzsche in the Second Dissertation of Genealogy of moral presenting his theory on the (pre)history of the humanity, that initiates with the creation of the memory and occurs in a context completely determined by concepts and legal categories / O trabalho tem por escopo investigar a gênese do processo de formação do direito. Reconhecendo o direito enquanto uma criação humana, um produto da linguagem, a proposta visa a um estudo histórico-genealógico do direito que retorne às origens dos seus obscuros sentidos. Esse regresso se pauta pelo exame das relações nas primitivas comunidades que indicam a verdadeira polêmica sobre o processo de formação do direito. Seu estudo possibilita um resgate das formas jurídicas e da conceituação do próprio direito, fomentando possibilidades de sua melhor compreensão, crítica e aplicabilidade. Para tal empresa a proposta pretende uma junção radical entre dois pensadores que aparentemente se distanciam filosoficamente, mas que, na realidade, mostram-se ao menos nessa seara, semelhantes e complementares. Kelsen na obra Vergeltung und Kauslatität expondo seu estudo etnológico sobre o princípio da retribuição e da causalidade a partir das comunidades primitivas, e Nietzsche na Segunda Dissertação de Para a genealogia da moral apresentando sua tese sobre a (pré)história da humanidade, que se inicia com a criação da memória e ocorre num contexto completamente determinado por conceitos e categorias jurídicas

Page generated in 0.0421 seconds