• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 30
  • 16
  • 6
  • 2
  • Tagged with
  • 87
  • 33
  • 24
  • 20
  • 13
  • 13
  • 12
  • 11
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Una aproximación práctica a la consolidación de arbitrajes

Reggiardo Saavedra, Mario, Liendo Tagle, Fernando 12 April 2018 (has links)
El presente artículo apunta a desarrollar un marco general de la consolidación de arbitrajes como institución jurídica del Derecho Arbitral, con el propósito fin de alcanzar su incorporación plena y una aplicación práctica en el contexto arbitral peruano. Así, el artículo compone los elementos fundamentales de la consolidación arbitral y aporta elementos para su empleo en base a investigaciones, laudos extranjeros, regulaciones y experiencias comparadas, aplicando análisis económico del derecho a fin de explicar sus efectos pragmáticos y beneficios. Desde un enfoque comparativo, interdisciplinario y trans-sistémico respecto a otras áreas del Derecho, los autores proponen que la consolidación de arbitrajes es una muestra de los desafíos que afronta la creciente, y cada más vez más compleja e intensa, actividad arbitral en el Perú. En suma, un artículo imprescindible para todos aquellos interesados en la práctica, armonización y perfeccionamiento del arbitraje en nuestro medio. This article aims to develop a general framework for the consolidation of arbitration as a legal institution of Arbitration, in order to achieve full incorporation and practical application in the context Peruvian arbitration. Thus, the article comprised the core elements of the arbitral consolidation and provides elements for use based on research, foreign awards, regulations and comparative experiences, applying law and economics to explain their pragmatic effects and benefits. From a comparative, interdisciplinary and trans-systemic respect to other areas of the law, the authors propose that the consolidation of arbitrations is an example of the challenges facing the growing and increasingly complex each more intense, arbitration activity in Peru . In summary, it’s a necessary article for anyone interested in the practice, harmonization and development of arbitration in our country.
52

Complex Formative Settlements in the Central-South Andes: When the Periphery became the Nucleus / Asentamientos formativos complejos en el centro-sur andino: cuando la periferia se constituye en núcleo

Nuñez, Lautaro 10 April 2018 (has links)
In this paper we discuss the diffusionist implications derived from centre-periphery relationships and the establishment of dependency links between western valley and circunpuna societies within the nuclear zone of the central and southern highlands during the Early and Middle Formative periods in northern Chile (1500 BC up to AD 400). By analyzing two complex settlements, Tulán-54 (located 3000 meters above sea level) and Caserones-1 (900 meters above sea level), we have observed that there has been an over-interpretation of foreign contributions in explaining the rise of sedentism that is associated with Formative Period developments. The identification of Archaic and Formative period components at the Tarapacá and Tulán loci supports an autochthonous development, which suggests the rise of local complex societies with early multidirectional links within a framework of highly diversified Formative responses in the Central-South Andean area. / En el presente trabajo se discuten las implicancias difusionistas derivadas del enfoque de las relaciones centro-periferia y la tendencia a establecer vínculos de dependencia entre las sociedades de las subáreas de los Valles Occidentales y la Circunpuna respecto de las tierras altas nucleares durante los periodos Formativo Temprano y Medio del norte de Chile (1500 a.C. a 400 d.C.). Mediante el análisis de dos asentamientos complejos, Tulán-54 (3000 metros sobre el nivel del mar) y Caserones-1 (900 metros sobre el nivel del mar), se advierte que ha existido una sobrevaloración de los aportes alóctonos para explicar el surgimiento del sedentarismo asociado a prácticas formativas. La identificación de componentes arcaico-formativos transicionales sustenta la tesis autoctonista, que valoriza, más bien, el surgimiento de tempranas sociedades complejas regionales que establecieron relaciones de interacción paritaria y multidireccional en el área centro-sur andina.
53

REDES DE PROCESADORES GENÉTICOS

Campos Frances, Marcelino 07 March 2016 (has links)
[EN] In this research, a new model of computing is presented, within the framework of natural computing and computer models inspired by biology: Networks of Genetic Processors (NGP). This new model is based on the one hand, by the family of networks of bio-inspired processors, specifically Networks of Evolutionary Processors (NEP) and Networks of Splicing Processors (NSP), and on the other hand by Genetic Algorithms. We can define the new model as a network of biologically-inspired processors where operations used by processors are crossover and mutation. One of the major interests studying the NGP is the computational power of the operations of crossover and mutation acting together. The NEP is a complete model that uses operations of symbol mutation: insertion, substitution and deletion, the NSP is a complete model that uses splicing operations, but the NEP is no longer a complete model using only substitution operations, as it happens to the NSP if we restrict the context of its splicing rules to the empty context. The study of the new model presented here responds to what happens when we put together in a single model the substitution rules from the NEP (called mutation rules) and the splicing rules with empty context from the NSP (called crossover rules). When we work with networks of biologically-inspired processors there are two basic types of networks, accepting networks and generating networks. These types of networks are mainly used to work at a theoretical level or to solve decision problems. To work on a more practical level such as solving optimization problems, we propose a new type of network, Networks of Genetic processors as Parallel Genetic Algorithms, inspired by the Parallel Genetic Algorithms. In this work we prove the computational completeness of our new model by showing that it is equivalent to the Turing machine. We prove the computational completeness of Parallel Genetic Algorithms by using this result and the similarity between the NGP and Parallel Genetic Algorithms. Moreover, we propose a characterization of the Chomsky hierarchy by using the NGP. Here, we simulate every grammar in the language classes of the Chomsky's hierarchy by using a NGP with an small number of processors required for each simulation. Hence, it gives an appreciable idea of the descriptional complexity of the different families of languages. Finally, in this work there is an experimental study of the behavior of the model for the resolution of some practical problems. First, we design and implement a simulator that allows the execution of networks of Genetic Processors in any of its three defined types: accepting networks, generating networks or as Parallel Genetic Algorithms. This allows us to test the model with different optimization problems. Then, we make a study to see if the new model could solve NP problems in polynomial time. We use the decision problem of Hamiltonian cycle in a graph. Finally, we test the simulator with two optimization problems showing a good computational behavior. The problems are the Multidimensional Knapsack problem and the Traveling Salesman problem. / [ES] Desde la rama de la biocomputación, la computación con modelos inspirados en la biología, esta investigación presenta un nuevo modelo de computación: las Redes de Procesadores Genéticos (NGP). Este nuevo modelo parte, por un lado, de la familia de modelos de redes de procesadores, más concretamente de las Redes de Procesadores Evolutivos (NEP) y las Redes de Procesadores de Splicing (NSP), y por otra parte se inspira en los Algoritmos Genéticos. Así pues, se puede definir de manera informal el nuevo modelo como una red de procesadores bioinspirados donde las operaciones utilizadas por los procesadores son operaciones de cruce y mutación. Uno de los mayores intereses del estudio de las NGP es la capacidad conjunta de las operaciones de cruce y mutación, las NEP son un modelo completo que utiliza operaciones de evolución, es decir, inserción, substitución y borrado, las NSP son un modelo completo que utiliza operaciones de splicing, pero las NEP dejan de ser un modelo completo al usar sólo operaciones de substitución, al igual que le pasa a las NSP si restringimos el contexto de sus reglas de splicing a vacío. El estudio del nuevo modelo aquí presentado da respuesta a qué es lo que pasa cuando juntamos en un sólo modelo las operaciones de sustitución de las NEP (llamadas reglas de mutación) y las operaciones de splicing con contexto vacío de las NSP (llamadas reglas de cruce). Cuando se trabaja con redes de procesadores bioinspirados se definen principalmente dos tipos de redes, las redes aceptoras y las redes generadoras. Estos tipos de redes sirven principalmente para trabajar a un nivel teórico o para resolver problemas de decisión. Para trabajar a un nivel más práctico como por ejemplo con problemas de optimización, se propone un nuevo tipo de red, las Redes de Procesadores Genéticos como Algoritmos Genéticos Paralelos, llamadas así por inspirarse en los Algoritmos Genéticos Paralelos. A nivel teórico, se ha podido demostrar la completitud computacional del modelo, con lo que su potencia de computación se sitúa al mismo nivel que el de las maquinas de Turing. A raíz de este resultado y dada la gran similitud entre las NGP y los Algoritmos Genéticos Paralelos, en este trabajo se demuestra que éstos también son un modelo de computación completo. Por otra parte se ha podido realizar una caracterización de la jerarquía de Chomsky utilizando las NGP, para ello se simula cada una de las gramáticas que definen las cuatro familias de lenguajes de dicha jerarquía observando el mínimo número de procesadores necesarios para cada simulación, lo cual da una idea apreciable de la diferencia de complejidad entre las diferentes familias. No falta en este trabajo un estudio de la parte más práctica del modelo con la realización de algunas tareas. Primero se ha diseñado e implementado un simulador que permite la ejecución de Redes de Procesadores Genéticos en cualquiera de sus tres vertientes aquí definidas, como aceptoras, como generadoras o como Algoritmos Genéticos Paralelos, esto permite realizar pruebas con diferentes problemas de optimización. A continuación se ha realizado un estudio para ver si el nuevo modelo era capaz de resolver problemas NP en tiempo polinómico, para ello se ha trabajado con el problema de ver si existe algún ciclo Hamiltoniano en un grafo. Finalmente se ha probado el simulador con dos problemas de optimización en los que se ha detectado un buen comportamiento del mismo, los problemas utilizados han sido el problema de la mochila multidimensional y el problema del viajante de comercio. / [CAT] Des de la branca de la biocomputació (la computació amb models inspirats amb la biologia) aquesta investigació presenta un nou model de computació: Les Xarxes de Processadors Genètics (NGP). Aquest nou model ve, d'una banda, de la família de models de xarxes de processadors, més concretament de les Xarxes de Processadors Evolutius (NEP) i de les Xarxes de Processadors de Splicing (NSP) i d'altra banda s'inspira als Algoritmes Genètics. Així doncs, es pot definir d'una manera informal el nou model com una xarxa de processadors bioinspirats on les operacions utilitzades per els processadors són operacions de creuament i mutació. Un dels elements més interessants de l'estudi de les NGP és la capacitat conjunta de les operacions de creuament i mutació, les NEP són un model complet que utilitza operacions evolutives, és a dir, insercions, substitucions i esborrats, les NSP són un model complet que utilitza operacions de splicing, però les NEP deixen de ser un model complet al gastar sols operacions de substitució, al igual que li passa a les NSP si restringim el context de les seues regles de splicing a buit. L'estudi del nou model presentat ací dóna resposta a què és el que passa quan ajuntem a un sol model les operacions de substitució de les NEP (anomenades regles de mutació) i les operacions de splicing amb context buit de les NSP (anomenades regles de creuament). Quan es treballa amb xarxes de processadors bioinspirats es defineixen principalment dos tipus de xarxes, les xarxes aceptores i les xarxes generadores. Aquests tipus de xarxes s'utilitzen principalment per a treballar a nivell teòric o per a resoldre problemes de decisió. Per treballar a un nivell més pràctic, com per exemple amb problemes d'optimització, es proposa un nou tipus de xarxa, les Xarxes de Processadors Genètics com Algoritmes Genètics Paral·lels, anomenats així per estar inspirats en els Algoritmes Genètics Paral·lels. A nivell teòric, s'ha pogut demostrar la completitut computacional del model, amb el que la seua potència computacional es situa al mateix nivell que les màquines de Turing. Degut a aquest resultat i donada la gran similitud entre les NGP i els Algoritmes genètics Paral·lels, en aquest treball es demostra que aquestos també són un model computacional complet. D'altra banda, s'ha pogut realitzar una caracterització de la jerarquia de Chomsky utilitzant les NGP, aquest procés es realitza simulant cada una de les gramàtiques que defineixen les quatre famílies de llenguatges d'aquesta jerarquia observant el mínim nombre de processadors necessaris per a cada simulació, el que ens dóna una idea apreciable de la diferència de complexitat entre les diferents famílies. No falta a aquest treball un estudi de la part més pràctica del model com la realització d'algunes tasques. Primer s'ha dissenyat i implementat un simulador que permet l'execució de Xarxes de Processadors Genètics a qualsevol de les seues tres varietats ací definides, com aceptores, com a generadores o com a Algoritmes Genètics Paral·lels, amb el que podem realitzar proves amb diferents problemes d'optimització. A continuació s'ha realitzat un estudi per vore si el nou model era capaç de resoldre problemes NP en un temps polinòmic, estudi que hem realitzat utilitzant el problema de saber si existeix algun cicle Hamiltonià en un graf. Finalment s'ha provat el simulador amb dos problemes d'optimització als que s'ha comprovat que té un bon comportament, els problemes utilitzats són el problema de la motxilla multidimensional i el problema del viatjant de comerç. / Campos Frances, M. (2016). REDES DE PROCESADORES GENÉTICOS [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61452 / TESIS
54

O conhecimento musical na perspectiva da complexidade : possibilidades para a educação musical /

Cardoso, Renato de Carvalho January 2020 (has links)
Orientador: Margarete Arroyo / Resumo: Esta tese versa sobre três problemas filosóficos em torno do conceito de conhecimento musical. O primeiro problema trata dos tipos de conhecimento musical, buscando estabelecer quais parâmetros específicos informam a prática musical. O segundo problema trata das formas de conhecimento, traçando uma trajetória pela relação da música com outras formas de conhecimento, tais como ciência e filosofia, dentre outras. O terceiro problema se refere aos limites da racionalidade no conhecimento musical, buscando por uma razão aberta que contemple a condição humana. Este trabalho se situa no campo da filosofia da educação musical e analisa os problemas filosóficos enunciados à luz dos trabalhos de Bennet Reimer, A Philosophy of Music Education (1970), Keith Swanwick, Musical Knowledge (1994) e David Elliott e Marissa Silverman, Music Matters 2nd Edition (2015). O problema de pesquisa surge da revisão bibliográfica destes trabalhos, a qual aponta que as tipologias do conhecimento musical apresentadas pelos autores são centralizadoras e hierárquicas. Além disso, os autores revisados não estabelecem como o conhecimento musical se articula e se organiza em relação a outras formas de conhecimento, revelando um posicionamento estritamente disciplinar. Logo, a questão da pesquisa se coloca da seguinte forma: Como conceituar o conhecimento musical, evitando o reducionismo, a disjunção e a centralização? O referencial teórico deste trabalho é o pensamento complexo de Edgar Morin, especialmente e... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: This thesis approaches three philosophical problems encompassing the concept of musical knowledge. The first problem addresses the types of musical knowledge, seeking to establish which specific parameters inform the musical practice. The second problem deals with forms of knowledge, tracing a trajectory through the relationship of music with other forms of knowledge, such as science and philosophy, among others. The third problem refers to the limits of rationality in musical knowledge, looking for an open reason that contemplates the human condition. This work is situated in the academic field of philosophy of music education and analyzes the philosophical problems formulated in light of the works of Bennet Reimer, A Philosophy of Music Education (1970), Keith Swanwick, Musical Knowledge (1994) and David Elliott & Marissa Silverman, Music Matters 2nd Edition (2015). The research problem emerges from the bibliographic review of these works, which points out that the typologies of musical knowledge presented by the authors are centralized and hierarchical. In addition, the reviewed authors do not establish how musical knowledge is articulated and organized in relation to other forms of knowledge, revealing a strictly disciplinary position. Therefore, the research query arises as follows: How to define musical knowledge, avoiding reductionism, disjunction and centralization? The theoretical framework of this thesis is the complex thought by Edgar Morin's, especially in his wor... (Complete abstract click electronic access below) / Resumen: Esta tesis trata tres problemas filosóficos en torno al concepto de conocimiento musical. El primer problema trata con los tipos de conocimiento musical, buscando establecer qué parámetros específicos informan la práctica musical. El segundo problema trata sobre las formas de conocimiento, trazando una trayectoria a través de la relación de la música con otras formas de conocimiento, como la ciencia y la filosofía, entre otras. El tercer problema se refiere a los límites de la racionalidad en el conocimiento musical, buscando una razón abierta que contemple la condición humana. Este trabajo se ubica en el campo de la filosofía de la educación musical y analiza los problemas filosóficos expuestos a la luz de los trabajos de Bennet Reimer, A Philosophy of Music Education (1970), Keith Swanwick, Musical Knowledge (1994) y David Elliott y Marissa Silverman, Music Matters 2ª Edición (2015). El problema de investigación surge de la revisión bibliográfica de estos trabajos, que señala que las tipologías de conocimiento musical presentadas por los autores son centralizadas y jerárquicas. Además, los autores revisados no establecen cómo se articula y organiza el conocimiento musical en relación con otras formas de conocimiento, revelando una posición estrictamente disciplinaria. Por lo tanto, la pregunta de investigación surge de la siguiente manera: ¿Cómo definir el conocimiento musical, evitando el reduccionismo, la disyunción y la centralización? El marco teórico del trabajo es el ... (Resumen completo clicar acceso eletrônico abajo) / Doutor
55

Aplicación de la teoría de los sistemas complejos y la autoorganización al estudio de la distribución del tamaño de las empresas

Llorca Ponce, Alicia 01 February 2020 (has links)
[EN] The research work presented below tries to advance the explanation of an empirically contrasted phenomenon: the assymetric behaviour of the distribution of the size of companies. Empirical evidence in this regard has shown that, in most cases, economies are supplied by companies of all sizes. The assymetric behaviour of the distribution indicates us that markets are generally made up of very few large-size companies next to a high number of small-size companies. This behaviour, far from being an exclusive characteristic of the distribution of the size of companies, is present in other phenomena not only economic – for instance, the distribution of a population’s income or the localisation of activities in space – but also belonging to other very different fields. In 1949, linguistic George Kingley Zipf published a work in which he talked about various phenomena, distributed in an assymetric way, where you could see a mathematic relation between the size of an event and the frequency of its appearance. This relation, today known as Zipf’s law, indicates us that the appearance frequency of a certain event inversely depends on its size or intensity. Applied to the distribution of the size of companies, the compliance of the law implies that the appearance frequency of companies of a certain size inversely depends on the size achieved by them raised to a power. This behaviour was already discovered by Pareto in 1896 in a controversial question: the distribution of income in a population. Since Zipf’s work was published, many others have discovered the presence of potential laws in the distribution of different phenomena: the intensity of earthquakes, the frequency of words occurrence, the avalanches of species in danger of extinction, or the visits to web pages, among others. Nowadays, the ubiquitous character of this behaviour known as distributions of potential law is recognized. In spite of the important empiric evidence in this regard, theoretical explanations about the abundant appearance of phenomena that are distributed as potential laws have not been very successful. This research, centered in adjusting the distribution of the size of companies to the Zipf law, widens the empirical evidence in this regard: it checks compliance thereof for Spanish companies. Nontheless, beyond empirical work, the aim of the research is to advance the possible theoretical explanations of the phenomenon. In this sense, the researches carried out consider that the paradigme of complexity and Selforganization is the most suitable approach to deal with this matter. The conclusion is that potential laws observed in complex systems are a characteristic of the architecture of selforganized systems. Specifically, Zipf law observed for the distribution of the size of companies is a sign of the selforganization of the system, in our case of the market. Potential laws are considered as a macrobehaviour which spontaneously emerges in systems and derives form the multiple interactions between the agents involved. From these interactions, the statistic behaviour or guideline comes out; it can only be observed at the level of the system. The research recognizes the relation between the appearance of potential laws and the selforganization processes; from now on, the challenge is to try to determine which type of processes give place to the emergence of these laws. Although there are some theoretical explanations and models in this regard, they do not seem to be sufficiently satisfactory; there is still much to advance in the search of underlying mechanisms that generate the appearance of potential laws in the distribution of the size of companies. / [ES] El trabajo de investigación, que se presenta a continuación, trata de avanzar en la explicación de un fenómeno contrastado empíricamente: el comportamiento asimétrico de la distribución del tamaño de las empresas. La evidencia empírica al respecto, ha mostrado que, en la mayor parte de los casos, las economías son abastecidas por empresas de todos los tamaños. El comportamiento asimétrico de la distribución nos indica que los mercados están formados, generalmente, por muy pocas empresas de gran tamaño junto a un número elevado de empresas de pequeño tamaño. Este comportamiento, lejos de ser una característica exclusiva de la distribución del tamaño de las empresas, está presente en otros fenómenos tanto de carácter económico -por ejemplo, la distribución de los ingresos de una población o la localización de actividades en el espacio- como pertenecientes a otros campos muy diversos. En 1949, el lingüística George Kingley Zipf publicó un trabajo en el que dio a conocer diversos fenómenos, distribuidos de forma asimétrica, en los que se podía observar una relación matemática entre el tamaño de un suceso y su frecuencia de aparición. Esta relación, hoy conocida como ley de Zipf, nos indica que la frecuencia de aparición de un determinado suceso depende inversamente de su tamaño o intensidad. Aplicado a la distribución del tamaño de las empresas, el cumplimiento de la ley implica que la frecuencia de aparición de empresas con un determinado tamaño depende inversamente del tamaño alcanzado por ésta elevado a una potencia. Este comportamiento ya fue descubierto por Pareto en el año 1896 en una cuestión polémica: la distribución de los ingresos de la población. Desde la publicación del trabajo de Zipf muchos han descubierto la presencia de leyes potenciales en la distribución de diversos fenómenos: la intensidad de los terremotos, la frecuencia de aparición de las palabras, las avalanchas de extinción de especies, o las visitas a las páginas web, entre otros. Hoy por hoy, se reconoce el carácter ubicuo de este comportamiento conocido como distribuciones de ley potencial. Pese a la importante evidencia empírica al respecto, las explicaciones teóricas sobre la abundante aparición de fenómenos que se distribuyen como leyes potenciales no han tenido demasiado éxito. Esta investigación, centrada en el ajuste de la distribución del tamaño de las empresas a la ley de Zipf, amplia la evidencia empírica al respecto: comprueba su cumplimiento para las empresas españolas. Ahora bien, más allá del trabajo empírico, el objetivo de la investigación es avanzar en las posibles explicaciones teóricas del fenómeno. En este sentido, las investigaciones realizadas consideran que el paradigma de la complejidad y la autoorganización es el enfoque más adecuado para abordar la cuestión. Se concluye que las leyes potenciales observadas en sistemas complejos son una característica de la arquitectura de los sistemas autoorganizados. Concretamente, la ley de Zipf observada para la distribución del tamaño de las empresas es una manifestación de la autoorganización del sistema, en nuestro caso del mercado. Las leyes potenciales son consideradas como un macrocomportamiento que emerge de forma espontánea en los sistemas y que se deriva de las múltiples interacciones entre los agentes que lo forman. De estas últimas, surge la pauta o comportamiento estadístico que sólo es observable a nivel del sistema. La investigación reconoce la relación entre la aparición de leyes potenciales y los procesos de autoorganización, a partir de aquí, el reto es tratar de determinar qué tipo de procesos dan lugar a la emergencia de estas leyes. Aunque existen algunas explicaciones y modelos teóricos al respecto, no parecen ser suficientemente satisfactorios, aún queda mucho por avanzar en la búsqueda de los mecanismos subyacentes que generan la aparición de leyes potenciales en la distribución del tamaño de las empresas. / [CA] l treball d’investigació presentat a continuació tracta d’avançar en l’explicació d’un fenomen contrastat empíricament: el comportament asimètric de la distribució del tamany de les empreses. L’evidència empírica al respecte ha mostrat que, en la majoria dels casos, les economies són abastides per empreses de tots els tamanys. El comportament asimètric de la distribució ens indica que els mercats estan formats, generalment, per molt poques empreses de gran tamany juntament amb una xifra elevada d’empreses de tamany xicotet. Aquest comportament, lluny de ser una característica exclusiva de la distribució del tamany de les empreses, és present en uns altres fenòmens tant de caràcter econòmic – per exemple, la distribució dels ingressos d’una població o la localització d’activitats a l’espai – com pertanyents a uns altres camps molt diversos. El 1949, el lingüista George Kingley Zipf va publicar un treball en què va donar a conéixer diversos fenòmens, distribuïts de manera asimètrica, en els quals es podia observar una relació matemàtica entre entre el tamany d’un succés i la seua freqüència d’aparició. Aquesta relació, hui coneguda com la llei de Zipf, ens indica que la freqüència d’aparició d’un determinat succés depén inversament del seu tamany o intensitat. Aplicat a la distribució del tamany a les empreses, el compliment de la llei indica que la freqüència d’aparició d’empreses amb un determinat tamany depén inversament del tamany aconseguit per aquesta elevat a una potència. Aquest comportament ja va ser descobert per Pareto l’any 1896 en una qüestió polèmica: la distribució dels ingressos de la població. D’ençà de la publicació del treball de Zipf molts han descobert la presència de lleis potencials en la distribució de diversos fenòmens: la intensitat dels terratrèmols, la freqüència d’aparició de les paraules, les allaus d’extinció d’espècies, o les visites a les pàgines web, entre d’altres. Ara per ara es reconeix el caràcter ubic d’aquest comportament conegut com a distribucions de llei potencial. Malgrat la important evidència empírica al respecte, les explicacions teòriques sobre l’abundant aparició de fenòmens que es distribueixen com a lleis potencials no han tingut gaire èxit. Aquesta investigació, centrada en l’ajustament de la distribució del tamany de les empreses a la llei de Zipf, amplia l’evidència empírica al respecte: comprova el seu compliment per a les empreses espanyoles. Ara bé, més enllà del treball empíric, l’objectiu de la investigació és avançar en les possibles explicacions teòriques del fenomen. En aquest sentit, les investigacions realitzades consideren que el paradigma de la Complexitat i l’Autoorganització és l’enfocament més adequat per abordar la qüestió. Es conclou que les lleis potencials observades en sistemes complexos són una característica de l’arquitectura dels sistemes autoorganitzats. Concretament, la llei de Zipf observada per a la distribució del tamany de les empreses és una manifestació de l’autoorganització del sistema, en el nostre cas del mercat. Les lleis potencials són considerades com un macrocomportament que emergeix de manera espontània en els sistemes i que es deriva de les múltiples interaccions entre els agents que el formen. D’aquestes últimes sorgeix la pauta o comportament estadístic que només és observable en l’àmbit del sistema. La investigació reconeix la relació entre l’aparició de lleis potencials i els processos d’autoorganització. A partir d’ací, el repte és tractar de determinar quin tipus de processos donen lloc a l’emergència d’aquestes lleis. Encara que hi ha algunes explicacions i models teòrics al respecte, no semblen ser suficientment satisfactoris. Encara queda molt per avançar en la recerca dels mecanismes subjacents que generen l’aparició de lleis potencials en la distribució del tamany de les empreses. / Llorca Ponce, A. (2007). Aplicación de la teoría de los sistemas complejos y la autoorganización al estudio de la distribución del tamaño de las empresas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/136194 / TESIS
56

Contractive Maps and Complexity Analysis in Fuzzy Quasi-Metric Spaces

Tirado Peláez, Pedro 04 September 2008 (has links)
En los últimos años se ha desarrollado una teoría matemática con propiedades robustas con el fin de fundamentar la Ciencia de la Computación. En este sentido, un avance significativo lo constituye el establecimiento de modelos matemáticos que miden la "distancia" entre programas y entre algoritmos, analizados según su complejidad computacional. En 1995, M. Schellekens inició el desarrollo de un modelo matemático para el análisis de la complejidad algorítmica basado en la construcción de una casi-métrica definida en el espacio de las funciones de complejidad, proporcionando una interpretación computacional adecuada del hecho de que un programa o algoritmo sea más eficiente que otro en todos su "inputs". Esta información puede extraerse en virtud del carácter asimétrico del modelo. Sin embargo, esta estructura no es aplicable al análisis de algoritmos cuya complejidad depende de dos parámetros. Por tanto, en esta tesis introduciremos un nuevo espacio casi-métrico de complejidad que proporcionará un modelo útil para el análisis de este tipo de algoritmos. Por otra parte, el espacio casi-métrico de complejidad no da una interpretación computacional del hecho de que un programa o algoritmo sea "sólo" asintóticamente más eficiente que otro. Los espacios casi-métricos difusos aportan un parámetro "t", cuya adecuada utilización puede originar una información extra sobre el proceso computacional a estudiar; por ello introduciremos la noción de casi-métrica difusa de complejidad, que proporciona un modelo satisfactorio para interpretar la eficiencia asintótica de las funciones de complejidad. En este contexto extenderemos los principales teoremas de punto fijo en espacios métricos difusos , utilizando una determinada noción de completitud, y obtendremos otros nuevos. Algunos de estos teoremas también se establecerán en el contexto general de los espacios casi-métricos difusos intuicionistas, de lo que resultarán condiciones de contracción menos fuertes. Los resultados obt / Tirado Peláez, P. (2008). Contractive Maps and Complexity Analysis in Fuzzy Quasi-Metric Spaces [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2961 / Palancia
57

Propriedade intelectual e inovação: ressignificações a partir do pensamento complexo de Edgar Morin

Arrabal, Alejandro Knaesel 24 February 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2017-07-03T12:31:34Z No. of bitstreams: 1 Alejandro Knaesel Arrabal_.pdf: 2918162 bytes, checksum: fbe1714efd5f88e8f134fb63e2b0a91c (MD5) / Made available in DSpace on 2017-07-03T12:31:34Z (GMT). No. of bitstreams: 1 Alejandro Knaesel Arrabal_.pdf: 2918162 bytes, checksum: fbe1714efd5f88e8f134fb63e2b0a91c (MD5) Previous issue date: 2017-02-24 / Nenhuma / A Propriedade Intelectual, compreendida como garantia de exclusividade sobre bens culturais e tecnológicos em favor de um titular e, ao mesmo tempo, como constrição de acesso a estes bens por parte do coletivo, é atravessada por uma crise que se traduz na inadequação de seus elementos estruturantes, frente à realidade contemporânea invadida pela Inovação. O mundo revelou sua Complexidade ao promover a emergência de múltiplas vias de acesso à produção e reprodução de bens culturais e tecnológicos. A Complexidade foi erigida no contexto da emergência da conectividade, do mercado global, da interdisciplinaridade e da atomização das instituições. Temem-se as incertezas e, paradoxalmente, festejam-se as mudanças. Efeitos decorrentes da Inovação Cultural e Tecnológica representam um grande desafio para a Propriedade Intelectual. Este estudo procurou desvendar sob quais condições é possível ressignificar os contornos característicos da Propriedade Intelectual, frente às transformações sociais decorrentes da Inovação. Para tanto, foi realizada pesquisa de aporte bibliográfico e documental, cujo procedimento de investigação foi predominantemente dialógico e historiográfico. Objetivou-se, de modo geral, compreender e adotar como paradigma epistêmico e metodológico o pensamento complexo de Edgar Morin, a fim de observar dialogicamente à relação entre a Propriedade Intelectual e a Inovação. A pesquisa revelou que a Propriedade Intelectual ancora-se de forma restrita e disjuntiva no paradigma sujeito-objeto. Propõe-se à superação deste modelo a partir da dessubjetivação e da desobjetificação, dos critérios de Originalidade e Novidade que marcam a disjunção entre o Direito Autoral e a Propriedade Industrial, respectivamente, permitindo assim lidar de modo mais adequado com a caracterização da Exclusividade sobre a Criação Intelectual. / La Propiedad Intelectual, entendido como la garantía exclusiva de los bienes culturales y tecnológicos a favor de un titular y, al mismo tiempo, la constricción de acceso a estos bienes por el colectivo, es atravesado por una crisis que se refleja en la insuficiencia de sus elementos estructurales, frente a la realidad contemporánea invadido por la innovación. El mundo reveló su complejidad cuando promovió la aparición de múltiples vías de acceso a la producción y reproducción de los bienes culturales y tecnológicos. El Complejo fue construido en el contexto de la aparición de la conectividad, el mercado mundial, la interdisciplinariedad y la atomización de las instituciones. Incierto es el miedo y, paradójicamente, los cambios se celebran. Efectos de la Cultura e Innovación Tecnológica representan un desafío importante para la Propiedad Intelectual. Este estudio trata de desvelar en qué condiciones es posible redefinir los contornos característicos de la Propiedad Intelectual, ante el cambio social como consecuencia de la innovación. Para tanto, se llevó a cabo una investigación bibliográfica y documental, cuyo procedimiento de investigación fue predominantemente dialógico e historiográfico. El objetivo, de modo general, fue entender y adoptar, como paradigma epistémico y metodológico, el pensamiento complejo de Edgar Morin, con el fin de observar de manera dialógica la relación entre la propiedad intelectual y la innovación. La investigación reveló que la Propiedad Intelectual está anclado de manera restrictiva y disyuntiva en el paradigma sujeto-objeto. Se propone para superar este modelo la dessubjetivácion y desobjetificácion de los criterios de originalidad y novedad que marcan la separación entre los Derechos de Autor e la Propiedad Industrial, respectivamente, con lo que para hacer frente de manera más adecuada con la caracterización de la Exclusividad de Creación Intelectual.
58

Geografia: ensino e neurociências

Pinto, Kinsey Santos January 2015 (has links)
Este tese, que denominamos de viagem pelo Universo e pelo universo que há em nossa mente, transitamos pelo Espaço Geográfico, pelo ensino de Geografia, pela Epistemologia Genética e pelas Neurociências. Inicialmente, buscamos levantar inquietações relacionadas ao (Sub)espaço Geográfico Escola e o Ensino de Geografia. A seguir, com o auxílio do Paradigma da Complexidade de Edgar Morin, viajamos até a galáxias da Neurociências analisando se ela pode contribuir, ou não, na prática docente na formação de Sujeitos professores cujo o território de ação (Sub)Espaço Geográfico Escola na contemporaneidade. Nesta analise traçamos como objetivos: investigar as metodologias na formação docente do Sujeito professor de Geografia; discutir sobre a necessidade de um trabalho que reflita sobre as práticas de Ensino de Geografia a partir da aproximação dos estudos em Epistemologia Genéticas e Neurociências; analisar práticas que viabilizem uma Tomada de Consciência dos Sujeitos escolares no território do (Sub)espaço Geográfico Escola e aplicar as noções de Epistemologia Genética e Neurociências no Ensino de Geografia. Piaget e Damásio unem-se na astronave juntamente com Milton Santos, Castrogiovanni, Viktor Frankl, Freire e outros autores no percurso desta viagem. A metodologia da pesquisa qualitativa de Flick (2004) que fora empregada nos possibilitou o uso da análise de entrevistas em profundidade e análise de desenhos de Sujeitos alunos. A viagem não tem a proposta de fornecer um roteiro definitivo ao seu final, contudo, buscamos apresentar uma possibilidade de Epistemologia do Sujeito professor de Geografia dotada de sentido nestes que parecem ser infinitos universos: o espaço e a mente. / This thesis, which we call travel through the universe and the universe that is in our mind, we transit by Geographic Area by teaching Geography, the Genetic Epistemology and the neurosciences. Initially, we seek to raise concerns related to (Sub) space and Geographic School Geography Teaching. Then, with the help of Paradigm of Edgar Morin Complexity, we traveled to the Neuroscience of galaxies considering whether it can contribute, or not, in the teaching practice in the subjects of training teachers whose territory the action (Sub) Geographical Space School in contemporary. In this analysis we draw the following objectives: to investigate methodologies in teacher education of the subject Professor of Geography; discuss the need for a work that reflects on Geography Teaching practices from the approach of the studies in Genetic Epistemology and Neuroscience; analyze practices that enable one of school subjects Awareness socket on the territory of (Sub) Geographic space School and apply the concepts of Genetic Epistemology and Neuroscience in Geography Teaching. Piaget and Damásio unite the spacecraft along with Milton Santos, Castrogiovanni, Viktor Frankl, Freire and other authors in the course of this trip. The methodology of Flick (2004) qualitative research that was used allowed us to use the analysis of interviews and in-depth analysis of students Subject drawings. The trip has the proposal to provide a definitive roadmap to a close, however, we believe present a possibility of Epistemology of the Subject Geography teacher endowed with meaning those that seem to be infinite universes: the space and the mind. / Este tesis, que llamamos de viaje por el universo y el universo que está en nuestra mente, que el tránsito por Área Geográfica mediante la enseñanza de la Geografía, la Epistemología Genética y las neurociencias. Inicialmente, se busca plantear inquietudes relacionadas con la (Sub) Espacio y la Escuela Geographic Geografía Enseñanza. Luego, con la ayuda de Paradigma de Edgar Morin Complejidad, viajamos a la Neurociencia de galaxias considerar si puede contribuir, o no, en la práctica docente en las asignaturas de formación de profesores cuyo territorio la acción (Sub) geográfica Escuela Espacio en contemporánea . En este análisis nos basamos los siguientes objetivos: investigar metodologías en la formación docente del profesor tema de Geografía; discutir la necesidad de una obra que reflexiona sobre las prácticas de enseñanza de la geografía desde el enfoque de los estudios de Epistemología Genética y Neurociencia; analizar las prácticas que permiten a uno de la escuela somete toma de conciencia sobre el territorio de (Sub) Geographic School espacio y aplican los conceptos de Epistemología Genética y Neurociencia en Geografía Enseñanza. Piaget y Damásio unen la nave junto con Milton Santos, Castrogiovanni, Viktor Frankl, Freire y otros autores en el curso de este viaje. La metodología de Flick (2004) investigación cualitativa que se utilizó nos permitió utilizar el análisis de entrevistas y análisis en profundidad de los estudiantes dibujos Asunto. El viaje tiene la propuesta para proporcionar una hoja de ruta definitiva a su fin, sin embargo, creemos que presentan una posibilidad de Epistemología de la profesora de Geografía Asunto dotado de decir, aquellos que parecen ser infinitos universos: el espacio y la mente.
59

Complexity and aesthetic preference for diverse visual stimuli

Nadal Roberts, Marcos 29 November 2007 (has links)
Daniel Berlyne propuso en 1971 que las personas preferirían estímulos visuales de complejidad intermedia por encima de los de alta y baja complejidad. A pesar de que los resultados de algunos trabajos posteriores han verificado esta predicción, otros apuntan a que la preferencia aumenta linealmente con la complejidad, mientras que otros no han hallado relación significativa alguna. El objetivo de este trabajo es clarificar las causas de esta divergencia entre resultados anteriores. Nuestros propios resultados sugieren que ni diferencias en la composición de los grupos de participantes en cuanto al sexo ni en el tipo de materiales utilizados explican la discrepancia. Por el contrario, nuestros resultados sugieren que la divergencia en los resultados de estudios anteriores que han explorado la relación entre complejidad visual y preferencia estética se debe principalmente a diferencias en la concepción, definición y operativización del concepto de complejidad. / L'any 1971 Daniel Berlyne va proposar que les persones preferirien estímuls visuals de complexitat intermitja per sobre dels estímuls d'alta i baixa complexitat. Tot i que els resultats d'alguns treballs previs han verificat aquesta predicció, altres investigacions, en canvi, apunten que la preferència augmenta linealment amb la complexitat, mentre que d'altres no han trobat relació significativa alguna. L'objectiu d'aquest treball és el de clarificar les causes d'aquesta divergència entre els resultats anteriors. Els nostres propis resultats suggereixen que ni les diferències en la composició dels grups de participants pel que fa al sexe, ni tampoc el tipus de materials utilitzats, expliquen la discrepància. Pel contrari, els nostres resultats indiquen que la divergència en els resultats d'estudis anteriors que han explorat la relació entre complexitat visual i preferència estètica es deu principalment a diferències en la concepció, definició i operativització del concepte de «complexitat». / In 1971 Daniel Berlyne suggested that people would prefer intermediately complex visual stimuli over very simple or very complex ones. In spite of the fact that some subsequent studies have verified this prediction, others found that preference was linearly related with complexity, whereas others have found no significant relation. The objective of this work is to clarify the causes of this divergence among prior results. Our own results suggest that neither differences in the composition of participant groups in relation to sex nor the kind of materials they used explained the discrepancy. On the contrary, our results indicate that the divergence in the results of prior studies that have explored the relation between visual complexity and aesthetic preference is mainly due to difference sin the conception, definition, and operativization of the concept of complexity.
60

Data complexity in supervised learning: A far-reaching implication

Macià Antolínez, Núria 06 October 2011 (has links)
Aquesta tesi estudia la complexitat de les dades i el seu rol en la definició del comportament de les tècniques d'aprenentatge supervisat, i alhora explora la generació artificial de conjunts de dades mitjançant estimadors de complexitat. El treball s'ha construït sobre quatre principis que s'han succeït de manera natural. (1) La crítica de la metodologia actual utilitzada per la comunitat científica per avaluar el rendiment de nous sistemes d'aprenentatge ha desencadenat (2) l'interès per estimadors alternatius basats en l'anàlisi de la complexitat de les dades i el seu estudi. Ara bé, tant l'estat primerenc de les mesures de complexitat com la disponibilitat limitada de problemes del món real per fer el seu test han inspirat (3) la generació sintètica de problemes, la qual ha esdevingut l'eix central de la tesi, i (4) la proposta de fer servir estàndards artificials amb semblança als problemes reals. L'objectiu que es persegueix a llarg termini amb aquesta recerca és proporcionar als usuaris (1) unes directrius per escollir el sistema d'aprenentatge idoni per resoldre el seu problema i (2) una col•lecció de problemes per, o bé avaluar el rendiment dels sistemes d'aprenentatge, o bé provar les seves limitacions. / Esta tesis profundiza en el estudio de la complejidad de los datos y su papel en la definición del comportamiento de las técnicas de aprendizaje supervisado, a la vez que explora la generación artificial de conjuntos de datos mediante estimadores de complejidad. El trabajo se ha construido sobre cuatro pilares que se han sucedido de manera natural. (1) La crítica de la metodología actual utilizada por la comunidad científica para evaluar el rendimiento de nuevos sistemas de aprendizaje ha desatado (2) el interés por estimadores alternativos basados en el análisis de la complejidad de los datos y su estudio. Sin embargo, tanto el estado primerizo de las medidas de complejidad como la limitada disponibilidad de problemas del mundo real para su testeo han inspirado (3) la generación sintética de problemas, considerada el eje central de la tesis, y (4) la propuesta del uso de estándares artificiales con parecido a los problemas reales. El objetivo que se persigue a largo plazo con esta investigación es el de proporcionar a los usuarios (1) unas pautas pare escoger el sistema de aprendizaje más idóneo para resolver su problema y (2) una colección de problemas para evaluar el rendimiento de los sistemas de aprendizaje o probar sus limitaciones. / This thesis takes a close view of data complexity and its role shaping the behaviour of machine learning techniques in supervised learning and explores the generation of synthetic data sets through complexity estimates. The work has been built upon four principles which have naturally followed one another. (1) A critique about the current methodologies used by the machine learning community to evaluate the performance of new learners unleashes (2) the interest for alternative estimates based on the analysis of data complexity and its study. However, both the early stage of the complexity measures and the limited availability of real-world problems for testing inspire (3) the generation of synthetic problems, which becomes the backbone of this thesis, and (4) the proposal of artificial benchmarks resembling real-world problems. The ultimate goal of this research flow is, in the long run, to provide practitioners (1) with some guidelines to choose the most suitable learner given a problem and (2) with a collection of benchmarks to either assess the performance of the learners or test their limitations.

Page generated in 0.0335 seconds