• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 56
  • 16
  • 14
  • 8
  • 7
  • 6
  • 5
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 149
  • 149
  • 23
  • 23
  • 23
  • 22
  • 18
  • 18
  • 15
  • 14
  • 14
  • 14
  • 13
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Από τις τυχαίες γωνίες στις περιοδικές κατανομές

Παπαδοπούλου, Γεωργία 07 June 2013 (has links)
Η εκπόνηση της συγκεκριμένης Μεταπτυχιακής Εργασίας, εξετάζει, καταρχήν, την έννοια της πιθανότητας και τις βασικές ιδιότητές της, όπως την τυχαία μεταβλητή και τη συνάρτηση κατανομής. Παράλληλα όμως, παρουσιάζει στοιχεία βασικών διακριτών και συνεχών κατανομών, όπως της κανονικής, της ομοιόμορφης, της Poisson, και άλλων κατανομών της γραμμικής στατιστικής. Στη συνέχεια, αναφέρεται στις βασικές έννοιες της περιγραφικής στατιστικής, όπως οργάνωση και γραφική αναπαράσταση στατιστικών δεδομένων, ομαδοποίηση παρατηρήσεων, ιστόγραμμα συχνοτήτων, καθώς και περιγραφικά μέτρα γραμμικών δεδομένων. Κυρίως, όμως, η παρούσα μελέτη αποτελεί μία γενική επισκόπηση των στατιστικών μεθόδων παρουσίασης και ανάλυσης των περιοδικών δεδομένων. Με τον όρο "περιοδικά δεδομένα", εννοούμε τυχαίες διευθύνσεις και κατευθύνσεις προσανατολισμού. Η παρουσίασης των τυχαίων γωνιών, των γραφικών αναπαραστάσεων των περιοδικών δεδομένων καθώς και των περιγραφικών μέτρων - μέτρα θέσεως, διασποράς, λοξότητας, κυρτώσεως - θα μας οδηγήσουν σε μία καλύτερη προσέγγιση, κατανόηση των περιοδικών κατανομών. Επιπλέον, θα παρουσιαστούν αναλυτικά οι βασικές περιοδικές κατανομές, ομοιόμορφη και Von Mises κατανομή. Όμως, θα εξεταστούν και άλλες κατανομές μονοκόρυφες ή πολυκόρυφες, όπως οι περιελιγμένες κατανομές , η συνημίτονο και η καρδιοειδής κατανομή, οι λοξές κατανομές κ.ά. Τέλος, η εργασία θα αναφερθεί σε μία οικογένεια συμμετρικών περιοδικών κατανομών που προτάθηκε από τον κύριο Παπακωνσταντίνου και αποτελεί επέκταση της καρδιοειδούς κατανομής,σύμφωνα με εργασία των επιστημόνων Toshihiro Abe,Arthur Pewsey,Kunio Shimizu, παρέχοντας σημαντικά πλεονεκτήματα σε σχέση με άλλες οικογένειες κατανομών. / The preparation of this thesis examines, in principle,the concept of probability and its basic properties, such as the random variable and distribution function and presents data of basic discrete and continuous distributions, including normal, uniform, the Poisson, and other distributions of linear statistics. Then it refers to the basic concepts of descriptive statistics, such as the organization and the graphic representation of statistical data, grouping observations Frequency histogram as well as descriptive measures of linear data. Mostly, though, this study represents an overview of statistic methods of presentation and analysis of periodic data. By the term "periodic data" we mean random addresses and directions orientation. The presentation of random angles, graphic representations of periodic data and descriptive measures - measures of location, dispersion, skewness and kurtosis - will lead us to a better approach and understanding of periodic distributions. Furthermore, we present in detail the basic periodic distributions, the uniform and the Von Mises distribution. But other unimodal and multimodal distributions will be examined such as wrapped distributions, the cosine and cardioid distribution, skewed distributions, etc. Finally, this thesis will mention a family of symmetric periodic distributions proposed by Mr. Papakonstantinou and an extension of the cardioid distribution, according to the paper published by the scientists Toshihiro Abe,Arthur Pewsey and Kunio Shimizu, where significant advantages are provided over other families of distributions.
132

Conformidade à lei de Newcomb-Benford de grandezas astronômicas segundo a medida de Kolnogorov-Smirnov

ALENCASTRO JUNIOR, José Vianney Mendonça de 09 September 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-02-21T15:12:08Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_JoséVianneyMendonçaDeAlencastroJr.pdf: 648691 bytes, checksum: f2fbc98e547f0284f5aef34aee9249ca (MD5) / Made available in DSpace on 2017-02-21T15:12:08Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_JoséVianneyMendonçaDeAlencastroJr.pdf: 648691 bytes, checksum: f2fbc98e547f0284f5aef34aee9249ca (MD5) Previous issue date: 2016-09-09 / A lei de Newcomb-Benford, também conhecida como a lei do dígito mais significativo, foi descrita pela primeira vez por Simon Newcomb, sendo apenas embasada estatisticamente após 57 anos pelo físico Frank Benford. Essa lei rege grandezas naturalmente aleatórias e tem sido utilizada por várias áreas como forma de selecionar e validar diversos tipos de dados. Em nosso trabalho tivemos como primeiro objetivo propor o uso de um método substituto ao qui-quadrado, sendo este atualmente o método comumente utilizado pela literatura para verificação da conformidade da Lei de Newcomb-Benford. Fizemos isso pois em uma massa de dados com uma grande quantidade de amostras o método qui-quadrado tende a sofrer de um problema estatístico conhecido por excesso de poder, gerando assim resultados do tipo falso negativo na estatística. Dessa forma propomos a substituição do método qui-quadrado pelo método de Kolmogorov-Smirnov baseado na Função de Distribuição Empírica para análise da conformidade global, pois esse método é mais robusto não sofrendo do excesso de poder e também é mais fiel à definição formal da Lei de Benford, já que o mesmo trabalha considerando as mantissas ao invés de apenas considerar dígitos isolados. Também propomos investigar um intervalo de confiança para o Kolmogorov-Smirnov baseando-nos em um qui-quadrado que não sofre de excesso de poder por se utilizar o Bootstraping. Em dois artigos publicados recentemente, dados de exoplanetas foram analisados e algumas grandezas foram declaradas como conformes à Lei de Benford. Com base nisso eles sugerem que o conhecimento dessa conformidade possa ser usado para uma análise na lista de objetos candidatos, o que poderá ajudar no futuro na identificação de novos exoplanetas nesta lista. Sendo assim, um outro objetivo de nosso trabalho foi explorar diversos bancos e catálogos de dados astronômicos em busca de grandezas, cuja a conformidade à lei do dígito significativo ainda não seja conhecida a fim de propor aplicações práticas para a área das ciências astronômicas. / The Newcomb-Benford law, also known as the most significant digit law, was described for the first time by astronomer and mathematician Simon Newcomb. This law was just statistically grounded after 57 years after the Newcomb’s discovery. This law governing naturally random greatness and, has been used by many knowledge areas to validate several kind of data. In this work, the first goal is propose a substitute of qui-square method. The qui-square method is the currently method used in the literature to verify the Newcomb-Benford Law’s conformity. It’s necessary because in a greatness with a big quantity of samples, the qui-square method can has false negatives results. This problem is named Excess of Power. Because that, we proposed to use the Kolmogorov-Smirnov method based in Empirical Distribution Function (EDF) to global conformity analysis. Because this method is more robust and not suffering of the Excess of Power problem. The Kolmogorov-Smirnov method also more faithful to the formal definition of Benford’s Law since the method working considering the mantissas instead of single digits. We also propose to invetigate a confidence interval for the Kolmogorov-Smirnov method based on a qui-square with Bootstrapping strategy which doesn’t suffer of Excess of Power problem. Recently, two papers were published. I this papaers exoplanets data were analysed and some greatness were declared conform to a Newcomb-Benford distribution. Because that, the authors suggest that knowledge of this conformity can be used for help in future to indentify new exoplanets in the candidates list. Therefore, another goal of this work is explorer a several astronomicals catalogs and database looking for greatness which conformity of Benford’s law is not known yet. And after that , the authors suggested practical aplications for astronomical sciences area.
133

On the distribution of the values of arithmetical functions / Sur la répartition des valeurs des fonctions arithmétiques

Hassani, Mehdi 08 December 2010 (has links)
La thèse concerne différents aspects de la répartition des fonctions arithmétiques.1. Deshouillers, Iwaniec et Luca se sont récemment intéressés à la répartition modulo 1 de suites qui sont des valeurs moyennes de fonctions multiplicatives, par exemple phi(n)/n où phi est la fonction d'Euler. Nous étendons leur travail à la densité modulo 1 de suites qui sont des valeurs moyennes sur des suites polynômiales, typiquement n^2+1.2. On sait depuis les travaux de Katai, il y a une quarantaine d'années que la fonction de répartition des valeurs de phi(p-1)/(p-1) (où p parcourt les nombres premiers) est continue, purement singulière, strictement croissante entre 0 et 1/2. On précise cette étude en montrant que cette fonction de répartition a une dérivée infinie à gauche de tout point phi(2n)/(2n). / Abstract
134

Bestimmung lokaler Textur- und Spannungsverteilungen an submikro-/nanokristallinen mehrphasigen Gradientenmaterialien mittels zweidimensionaler Röntgenmikrobeugung sowie anhand analytischer und numerischer Modellierungsansätze

Eschke, Andy 01 April 2015 (has links) (PDF)
Fortschrittliche ingenieurtechnische Anwendungen stellen hohe Ansprüche an neuartige Materialien sowohl hinsichtlich e.g. mechanischer Eigenschaften wie Festigkeit und Duktilität als auch hinsichtlich einer möglichst vielfältigen Einsetzbarkeit (Maßschneiderung etc.). Zudem sind Ressourcenschonung und nachhaltige Produktion bei gleichzeitig hoher Performance zu realisieren. Entsprechend existiert grundlagenseitig Forschungsbedarf zu innovativen Materialien (e.g. Kompositwerkstoffe) und ihren Prozessierungen. In der vorliegenden Dissertation werden submikro-/nanokristalline mehrphasige Gradientenmaterialien zum Einen mittels experimenteller Methoden wie der zweidimensionalen Röntgenmikrobeugung (in geeigneter Weiterentwicklung) sowie zum Anderen mittels analytischer und numerischer Modellrechnungen bezüglich spezieller Eigenschaften und deren Korrelation zum Herstellungsprozess (starke plastische Verformung durch akkumuliertes Rundkneten) untersucht. Insbesondere werden lokale Verteilungen kristallografischer Textur sowie mechanischer (Eigen-)Spannungen analysiert und in Hinblick auf materialrelevante Eigenschaften (e.g. mechanisch, mikrostrukturell) interpretiert und korreliert. Derartige Beziehungen sind hinsichtlich perspektivischer Applikationen, e.g. im Bereich hochfester Leichtbaulösungen, von technischer Relevanz.
135

New Algorithms for Local and Global Fiber Tractography in Diffusion-Weighted Magnetic Resonance Imaging

Schomburg, Helen 29 September 2017 (has links)
No description available.
136

Synthèse par chimie douce et étude structurale de nanocristaux d'oxydes métalliques / Soft chemistry synthesis and structural study of metal oxide nanoparticles

Lemarchand, Alex 20 December 2018 (has links)
Ce travail concerne la synthèse et la caractérisation structurale de nanocristaux de faible taille (~1-3 nm) d’oxydes métalliques simples, à savoir le dioxyde de titane (TiO2), le dioxyde d’étain (SnO2) et le monoxyde de zinc (ZnO). Les synthèses ont été réalisées au moyen de méthodes sol-gel non-aqueuses voire strictement non-hydrolytiques sous contrôle cinétique. La caractérisation structurale s’est principalement appuyée sur la diffraction des rayons X, la microscopie électronique en transmission et la méthode des fonctions de distribution de paires atomiques, obtenues grâce à la diffusion totale des rayons X, couplées à des méthodes de modélisation à l’échelle atomique. Dans le cas de TiO2, des nanoparticules d’anatase bien cristallisées de 4 nm à 8 nm ont été synthétisées. Le ratio molaire de donneur d’oxygène par rapport au titane s’est avéré être un paramètre influençant fortement la taille des particules. Nous avons également mis en évidence la formation d’une phase intermédiaire caractérisée par des nanoparticules faiblement cristallisées de très faible taille dont la structure pourrait s’apparenter à une structure brookite désordonnée. Pour SnO2, des nanocristaux présentant une structure rutile ont été obtenus avec des tailles comprises entre 2 nm et 4 nm. Dans le cas de l’utilisation d’un éther, nous avons mis en évidence la formation concomitante d’une phase organique polymérisée et de nanoparticules primaires dont la structure intermédiaire présente de fortes similitudes avec la structure rutile. L’utilisation de solvants possédant une fonction benzyle en présence de tétrachlorure d’étain a conduit à la formation d’eau dans le système. Dans le cas de ZnO, nous avons montré que l’utilisation d’une base organique pour initier la formation du réseau oxyde dans une solution méthanolique d’acétate de zinc en présence d’un agent complexant du zinc permettait d’obtenir des nanoparticules de l’ordre de 1 nm. Même pour les faibles valeurs de taille, les nanoparticules présentent une structure très proche de la wurtzite avec un désordre croissant au niveau du réseau cationique. / The aim of this work was to synthesize small size (~1-3 nm) metal oxide nanocrystals namely titanium dioxide (TiO2), tin dioxide (SnO2) and zinc oxide (ZnO), and to study their structure. Syntheses were conducted via non-aqueous or even strictly non-hydrolytic sol-gel methods under kinetic control. The structural characterization was mainly carried out by X-Ray diffraction methods, transmission electronic microscopy and the study of pair distribution functions, obtained by X Ray total scattering, coupled with atomic scale modelling methods. In the case of TiO2, anatase nanocrystals were obtained with sizes ranging between 4 nm and 8 nm. The molar ratio of the oxygen donor with respect to titanium was shown to be an important parameter to control the nanoparticle size. In peculiar conditions we have been able to isolate an intermediate phase characterized by very small sized and poorly crystallized nanoparticles which the structure can be assimilated to a disordered brookite structure. Concerning SnO2, rutile-type nanocrystals were synthesized with sizes ranging between 2 nm and 4 nm. The use of an ether as oxygen donor led to the simultaneous formation of an organic polymeric phase and of primary nanoparticles characterized by an intermediate structure close but still different from the rutile-type structure. Moreover, the use of benzyl-type solvents in the presence of tin tetrachloride led to the formation of water in the system. Lastly, for ZnO, we have shown that using an organic base to induce the formation of the metal oxide network in a methanolic solution of zinc acetate in the presence of a strong complexing agent of the zinc allowed us to obtain wurtzite nanocrystals of ultrasmall sizes around 1 nm. Even for the smallest sizes, the nanoparticles exhibit a structure very close to that of wurtzite with an increasing disorder of the cationic network.
137

Sledování spektra a optimalizace systémů s více nosnými pro kognitivní rádio / Spectrum sensing and multicarrier systems optimization for cognitive radio

Povalač, Karel January 2012 (has links)
The doctoral thesis deals with spectrum sensing and subsequent use of the frequency spectrum by multicarrier communication system, which parameters are set on the basis of the optimization technique. Adaptation settings can be made with respect to several requirements as well as state and occupancy of individual communication channels. The system, which is characterized above is often referred as cognitive radio. Equipments operating on cognitive radio principles will be widely used in the near future, because of frequency spectrum limitation. One of the main contributions of the work is the novel usage of the Kolmogorov – Smirnov statistical test as an alternative detection of primary user signal presence. The new fitness function for Particle Swarm Optimization (PSO) has been introduced and the Error Vector Magnitude (EVM) parameter has been used in the adaptive greedy algorithm and PSO optimization. The dissertation thesis also incorporates information about the reliability of the frequency spectrum sensing in the modified greedy algorithm. The proposed methods are verified by the simulations and the frequency domain energy detection is implemented on the development board with FPGA.
138

Bestimmung lokaler Textur- und Spannungsverteilungen an submikro-/nanokristallinen mehrphasigen Gradientenmaterialien mittels zweidimensionaler Röntgenmikrobeugung sowie anhand analytischer und numerischer Modellierungsansätze

Eschke, Andy 22 January 2015 (has links)
Fortschrittliche ingenieurtechnische Anwendungen stellen hohe Ansprüche an neuartige Materialien sowohl hinsichtlich e.g. mechanischer Eigenschaften wie Festigkeit und Duktilität als auch hinsichtlich einer möglichst vielfältigen Einsetzbarkeit (Maßschneiderung etc.). Zudem sind Ressourcenschonung und nachhaltige Produktion bei gleichzeitig hoher Performance zu realisieren. Entsprechend existiert grundlagenseitig Forschungsbedarf zu innovativen Materialien (e.g. Kompositwerkstoffe) und ihren Prozessierungen. In der vorliegenden Dissertation werden submikro-/nanokristalline mehrphasige Gradientenmaterialien zum Einen mittels experimenteller Methoden wie der zweidimensionalen Röntgenmikrobeugung (in geeigneter Weiterentwicklung) sowie zum Anderen mittels analytischer und numerischer Modellrechnungen bezüglich spezieller Eigenschaften und deren Korrelation zum Herstellungsprozess (starke plastische Verformung durch akkumuliertes Rundkneten) untersucht. Insbesondere werden lokale Verteilungen kristallografischer Textur sowie mechanischer (Eigen-)Spannungen analysiert und in Hinblick auf materialrelevante Eigenschaften (e.g. mechanisch, mikrostrukturell) interpretiert und korreliert. Derartige Beziehungen sind hinsichtlich perspektivischer Applikationen, e.g. im Bereich hochfester Leichtbaulösungen, von technischer Relevanz.
139

Efficient Traffic Management in Urban Environments

Zambrano Martínez, Jorge Luis 28 October 2019 (has links)
[ES] En la actualidad, uno de los principales desafíos a los que se enfrentan las grandes áreas metropolitanas es la congestión provocada por el tráfico, la cual se ha convertido en un problema importante al que se enfrentan las autoridades de cada ciudad. Para abordar este problema es necesario implementar una solución eficiente para controlar el tráfico que genere beneficios para los ciudadanos, como reducir los tiempos de viaje de los vehículos y, en consecuencia, el consumo de combustible, el ruido, y la contaminación ambiental. De hecho, al analizar adecuadamente la demanda de tráfico, es posible predecir las condiciones futuras del tráfico, y utilizar esa información para la optimización de las rutas tomadas por los vehículos. Este enfoque puede ser especialmente efectivo si se aplica en el contexto de los vehículos autónomos, que tienen un comportamiento más predecible, lo cual permite a los administradores de la ciudad mitigar los efectos de la congestión, como es la contaminación, al mejorar el flujo de tráfico de manera totalmente centralizada. La validación de este enfoque generalmente requiere el uso de simulaciones que deberían ser lo más realistas posible. Sin embargo, lograr altos grados de realismo puede ser complejo cuando los patrones de tráfico reales, definidos a través de una matriz de Origen/Destino (O-D) para los vehículos en una ciudad, son desconocidos, como ocurre la mayoría de las veces. Por lo tanto, la primera contribución de esta tesis es desarrollar una heurística iterativa para mejorar el modelado de la congestión de tráfico; a partir de las mediciones de bucle de inducción reales hechas por el Ayuntamiento de Valencia (España), pudimos generar una matriz O-D para la simulación de tráfico que se asemeja a la distribución de tráfico real. Si fuera posible caracterizar el estado del tráfico prediciendo las condiciones futuras del tráfico para optimizar la ruta de los vehículos automatizados, y si se pudieran tomar estas medidas para mitigar de manera preventiva los efectos de la congestión con sus problemas relacionados, se podría mejorar el flujo de tráfico en general. Por lo tanto, la segunda contribución de esta tesis es desarrollar una Ecuación de Predicción de Tráfico para caracterizar el comportamiento en las diferentes calles de la ciudad en términos de tiempo de viaje con respecto al volumen de tráfico, y aplicar una regresión logística a esos datos para predecir las condiciones futuras del tráfico. La tercera y última contribución de esta tesis apunta directamente al nuevo paradigma de gestión de tráfico previsto, tratándose de un servidor de rutas capaz de manejar todo el tráfico en una ciudad, y equilibrar los flujos de tráfico teniendo en cuenta las condiciones de congestión del tráfico presentes y futuras. Por lo tanto, realizamos un estudio de simulación con datos reales de congestión de tráfico en la ciudad de Valencia (España), para demostrar cómo se puede mejorar el flujo de tráfico en un día típico mediante la solución propuesta. Los resultados experimentales muestran que nuestra solución, combinada con una actualización frecuente de las condiciones del tráfico en el servidor de rutas, es capaz de lograr mejoras sustanciales en términos de velocidad promedio y tiempo de trayecto, ambos indicadores de un menor grado de congestión y de una mejor fluidez del tráfico. / [CA] En l'actualitat, un dels principals desafiaments als quals s'enfronten les grans àrees metropolitanes és la congestió provocada pel trànsit, que s'ha convertit en un problema important al qual s'enfronten les autoritats de cada ciutat. Per a abordar aquest problema és necessari implementar una solució eficient per a controlar el trànsit que genere beneficis per als ciutadans, com reduir els temps de viatge dels vehicles i, en conseqüència, el consum de combustible, el soroll, i la contaminació ambiental. De fet, en analitzar adequadament la demanda de trànsit, és possible predir les condicions futures del trànsit, i utilitzar aqueixa informació per a l'optimització de les rutes preses pels vehicles. Aquest enfocament pot ser especialment efectiu si s'aplica en el context dels vehicles autònoms, que tenen un comportament més predictible, i això permet als administradors de la ciutat mitigar els efectes de la congestió, com és la contaminació, en millorar el flux de trànsit de manera totalment centralitzada. La validació d'aquest enfocament generalment requereix l'ús de simulacions que haurien de ser el més realistes possible. No obstant això, aconseguir alts graus de realisme pot ser complex quan els patrons de trànsit reals, definits a través d'una matriu d'Origen/Destinació (O-D) per als vehicles en una ciutat, són desconeguts, com ocorre la majoria de les vegades. Per tant, la primera contribució d'aquesta tesi és desenvolupar una heurística iterativa per a millorar el modelatge de la congestió de trànsit; a partir dels mesuraments de bucle d'inducció reals fetes per l'Ajuntament de València (Espanya), vam poder generar una matriu O-D per a la simulació de trànsit que s'assembla a la distribució de trànsit real. Si fóra possible caracteritzar l'estat del trànsit predient les condicions futures del trànsit per a optimitzar la ruta dels vehicles automatitzats, i si es pogueren prendre aquestes mesures per a mitigar de manera preventiva els efectes de la congestió amb els seus problemes relacionats, es podria millorar el flux de trànsit en general. Per tant, la segona contribució d'aquesta tesi és desenvolupar una Equació de Predicció de Trànsit per a caracteritzar el comportament en els diferents carrers de la ciutat en termes de temps de viatge respecte al volum de trànsit, i aplicar una regressió logística a aqueixes dades per a predir les condicions futures del trànsit. La tercera i última contribució d'aquesta tesi apunta directament al nou paradigma de gestió de trànsit previst. Es tracta d'un servidor de rutes capaç de manejar tot el trànsit en una ciutat, i equilibrar els fluxos de trànsit tenint en compte les condicions de congestió del trànsit presents i futures. Per tant, realitzem un estudi de simulació amb dades reals de congestió de trànsit a la ciutat de València (Espanya), per a demostrar com es pot millorar el flux de trànsit en un dia típic mitjançant la solució proposada. Els resultats experimentals mostren que la nostra solució, combinada amb una actualització freqüent de les condicions del trànsit en el servidor de rutes, és capaç d'aconseguir millores substancials en termes de velocitat faig una mitjana i de temps de trajecte, tots dos indicadors d'un grau menor de congestió i d'una fluïdesa millor del trànsit. / [EN] Currently, one of the main challenges that large metropolitan areas have to face is traffic congestion, which has become an important problem faced by city authorities. To address this problem, it becomes necessary to implement an efficient solution to control traffic that generates benefits for citizens, such as reducing vehicle journey times and, consequently, use of fuel, noise and environmental pollution. In fact, by properly analyzing traffic demand, it becomes possible to predict future traffic conditions, and to use that information for the optimization of the routes taken by vehicles. Such an approach becomes especially effective if applied in the context of autonomous vehicles, which have a more predictable behavior, thus enabling city management entities to mitigate the effects of traffic congestion and pollution by improving the traffic flow in a city in a fully centralized manner. Validating this approach typically requires the use of simulations, which should be as realistic as possible. However, achieving high degrees of realism can be complex when the actual traffic patterns, defined through an Origin/Destination (O-D) matrix for the vehicles in a city, are unknown, as occurs most of the times. Thus, the first contribution of this thesis is to develop an iterative heuristic for improving traffic congestion modeling; starting from real induction loop measurements made available by the City Hall of Valencia, Spain, we were able to generate an O-D matrix for traffic simulation that resembles the real traffic distribution. If it were possible to characterize the state of traffic by predicting future traffic conditions for optimizing the route of automated vehicles, and if these measures could be taken to preventively mitigate the effects of congestion with its related problems, the overall traffic flow could be improved. Thereby, the second contribution of this thesis was to develop a Traffic Prediction Equation to characterize the different streets of a city in terms of travel time with respect to the vehicle load, and applying logistic regression to those data to predict future traffic conditions. The third and last contribution of this thesis towards our envisioned traffic management paradigm was a route server capable of handling all the traffic in a city, and balancing traffic flows by accounting for present and future traffic congestion conditions. Thus, we perform a simulation study using real data of traffic congestion in the city of Valencia, Spain, to demonstrate how the traffic flow in a typical day can be improved using our proposed solution. Experimental results show that our proposed solution, combined with frequent updating of traffic conditions on the route server, is able to achieve substantial improvements in terms of average travel speeds and travel times, both indicators of lower degrees of congestion and improved traffic fluidity. / Finally, I want to thank the Ecuatorian Republic through the "Secretaría de Educación Superior, Ciencia, Tecnología e Innovación" (SENESCYT), for granting me the scholarship to finance my studies. / Zambrano Martínez, JL. (2019). Efficient Traffic Management in Urban Environments [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/129865 / TESIS
140

Contributions à l’estimation à noyau de fonctionnelles de la fonction de répartition avec applications en sciences économiques et de gestion / Contribution to kernel estimation of functionals of the distribution function with applications in economics and management

Madani, Soffana 29 September 2017 (has links)
La répartition des revenus d'une population, la distribution des instants de défaillance d'un matériel et l'évolution des bénéfices des contrats d'assurance vie - étudiées en sciences économiques et de gestion – sont liées a des fonctions continues appartenant à la classe des fonctionnelles de la fonction de répartition. Notre thèse porte sur l'estimation à noyau de fonctionnelles de la fonction de répartition avec applications en sciences économiques et de gestion. Dans le premier chapitre, nous proposons des estimateurs polynomiaux locaux dans le cadre i.i.d. de deux fonctionnelles de la fonction de répartition, notées LF et TF , utiles pour produire des estimateurs lisses de la courbe de Lorenz et du temps total de test normalisé (scaled total time on test transform). La méthode d'estimation est décrite dans Abdous, Berlinet et Hengartner (2003) et nous prouvons le bon comportement asymptotique des estimateurs polynomiaux locaux. Jusqu'alors, Gastwirth (1972) et Barlow et Campo (1975) avaient défini des estimateurs continus par morceaux de la courbe de Lorenz et du temps total de test normalisé, ce qui ne respectait pas la propriété de continuité des courbes initiales. Des illustrations sur données simulées et réelles sont proposées. Le second chapitre a pour but de fournir des estimateurs polynomiaux locaux dans le cadre i.i.d. des dérivées successives des fonctionnelles de la fonction de répartition explorées dans le chapitre précédent. A part l'estimation de la dérivée première de la fonction TF qui se traite à l'aide de l'estimation lisse de la fonction de répartition, la méthode d'estimation employée est l'approximation polynomiale locale des fonctionnelles de la fonction de répartition détaillée dans Berlinet et Thomas-Agnan (2004). Divers types de convergence ainsi que la normalité asymptotique sont obtenus, y compris pour la densité et ses dérivées successives. Des simulations apparaissent et sont commentées. Le point de départ du troisième chapitre est l'estimateur de Parzen-Rosenblatt (Rosenblatt (1956), Parzen (1964)) de la densité. Nous améliorons dans un premier temps le biais de l'estimateur de Parzen-Rosenblatt et de ses dérivées successives à l'aide de noyaux d'ordre supérieur (Berlinet (1993)). Nous démontrons ensuite les nouvelles conditions de normalité asymptotique de ces estimateurs. Enfin, nous construisons une méthode de correction des effets de bord pour les estimateurs des dérivées de la densité, grâce aux dérivées d'ordre supérieur. Le dernier chapitre s'intéresse au taux de hasard, qui contrairement aux deux fonctionnelles de la fonction de répartition traitées dans le premier chapitre, n'est pas un rapport de deux fonctionnelles linéaires de la fonction de répartition. Dans le cadre i.i.d., les estimateurs à noyau du taux de hasard et de ses dérivées successives sont construits à partir des estimateurs à noyau de la densité et ses dérivées successives. La normalité asymptotique des premiers estimateurs est logiquement obtenue à partir de celle des seconds. Nous nous plaçons ensuite dans le modèle à intensité multiplicative, un cadre plus général englobant des données censurées et dépendantes. Nous menons la procédure à terme de Ramlau-Hansen (1983) afin d'obtenir les bonnes propriétés asymptotiques des estimateurs du taux de hasard et de ses dérivées successives puis nous tentons d'appliquer l'approximation polynomiale locale dans ce contexte. Le taux d'accumulation du surplus dans le domaine de la participation aux bénéfices pourra alors être estimé non parametriquement puisqu'il dépend des taux de transition (taux de hasard d'un état vers un autre) d'une chaine de Markov (Ramlau-Hansen (1991), Norberg (1999)) / The income distribution of a population, the distribution of failure times of a system and the evolution of the surplus in with-profit policies - studied in economics and management - are related to continuous functions belonging to the class of functionals of the distribution function. Our thesis covers the kernel estimation of some functionals of the distribution function with applications in economics and management. In the first chapter, we offer local polynomial estimators in the i.i.d. case of two functionals of the distribution function, written LF and TF , which are useful to produce the smooth estimators of the Lorenz curve and the scaled total time on test transform. The estimation method is described in Abdous, Berlinet and Hengartner (2003) and we prove the good asymptotic behavior of the local polynomial estimators. Until now, Gastwirth (1972) and Barlow and Campo (1975) have defined continuous piecewise estimators of the Lorenz curve and the scaled total time on test transform, which do not respect the continuity of the original curves. Illustrations on simulated and real data are given. The second chapter is intended to provide smooth estimators in the i.i.d. case of the derivatives of the two functionals of the distribution function presented in the last chapter. Apart from the estimation of the first derivative of the function TF with a smooth estimation of the distribution function, the estimation method is the local polynomial approximation of functionals of the distribution function detailed in Berlinet and Thomas-Agnan (2004). Various types of convergence and asymptotic normality are obtained, including the probability density function and its derivatives. Simulations appear and are discussed. The starting point of the third chapter is the Parzen-Rosenblatt estimator (Rosenblatt (1956), Parzen (1964)) of the probability density function. We first improve the bias of this estimator and its derivatives by using higher order kernels (Berlinet (1993)). Then we find the modified conditions for the asymptotic normality of these estimators. Finally, we build a method to remove boundary effects of the estimators of the probability density function and its derivatives, thanks to higher order derivatives. We are interested, in this final chapter, in the hazard rate function which, unlike the two functionals of the distribution function explored in the first chapter, is not a fraction of two linear functionals of the distribution function. In the i.i.d. case, kernel estimators of the hazard rate and its derivatives are produced from the kernel estimators of the probability density function and its derivatives. The asymptotic normality of the first estimators is logically obtained from the second ones. Then, we are placed in the multiplicative intensity model, a more general framework including censored and dependent data. We complete the described method in Ramlau-Hansen (1983) to obtain good asymptotic properties of the estimators of the hazard rate and its derivatives and we try to adopt the local polynomial approximation in this context. The surplus rate in with-profit policies will be nonparametrically estimated as its mathematical expression depends on transition rates (hazard rates from one state to another) in a Markov chain (Ramlau-Hansen (1991), Norberg (1999))

Page generated in 0.1165 seconds