Spelling suggestions: "subject:"funcions"" "subject:"puncions""
31 |
Análisis Geoestadístico Espacio Tiempo Basado en Distancias y Splines con AplicacionesMelo Martínez, Carlos Eduardo 06 September 2012 (has links)
Se propusieron innovaciones en la predicción espacio y espacio-temporal, a partir de métodos geoestadísticos y de funciones de base radial (RBF), considerando métodos basados en distancias. En este sentido, por medio de las distancias entre las variables explicativas, incorporadas específicamente en la regresión basada en distancias, se propusieron modificaciones en: el método kriging universal y en la interpolación con splines espacial y espacio-temporal usando las RBF.
El método basado en la distancia se utiliza en un modelo Geoestadístico para estimar la tendencia y la estructura de covarianza. Esta estrategia aprovecha al máximo la información existente, debido a la relación entre las observaciones, mediante el uso de una descomposición espectral de una distancia seleccionada y las coordenadas principales correspondientes.
Para el método propuesto kriging universal basado en distancias (DBUK), se realizó un estudio de simulación que permitió comparar la capacidad predictiva del método tradicional kriging universal con respecto a kriging universal basado en distancias; mientras que en la interpolación con Splines espacial y espacio-temporal, los estudios de simulación permitieron comparar el funcionamiento de las funciones de base radial espaciales y espaciotemporales, considerando en la tendencia las coordenadas principales generadas a partir de las variables explicativas mixtas mediante el uso del método basado en distancias.
El método propuesto DBUK muestra, tanto en las simulaciones como en las aplicaciones, ventajas en la reducción del error con respecto al método clásico de krigeado universal. Esta reducción de los errores se asocia a una mejor modelización de la tendencia y a un menor error en el ajuste y modelado del variograma, al considerar las coordenadas principales obtenidas a partir de las variables explicativas mixtas. Entre muchas otras posibles causas, el error es generado por omisión de variables y por considerar formas funcionales incorrectas.
El estudio de simulación muestra que el método propuesto DBUK es mejor que el método de krigeado universal tradicional ya que se encontró una notoria reducción del error, asociada a un RMSPE más pequeño, esta reducción en general fue superior al 10%. El método DBUK podrá producir una mejor estimación de la variable regionalizada si el número de coordenadas principales se incrementa. Esto es posible, incluyendo las coordenadas principales más significativas tanto en modelo de tendencia como en el variograma; se presenta una aplicación que ilustra este hecho.
Los métodos propuestos de interpolación espacial basada en distancias con RBF (DBSIRBF) e interpolación espacio-temporal basada en distancias con RBF (DBSTIRBF) analizados mediante una estructura de krigeado considerando en la tendencia las coordenadas principales, presentan un buen funcionamiento al trabajar con vecindarios grandes, indicando en general que se tendrá un menor error asociado a un RMSPE más pequeño
En diversos estudios, la detección de variabilidad entre zonas es una tarea muy difícil, y por lo cual los métodos propuestos DBUK, DBSIRBF y DBSTIRBF son útiles de acuerdo a los resultados obtenidos en la tesis, ya que aprovechan al máximo la información existente asociada a las variables explicativas. Aunque la correlación de las variables explicativas puede ser baja con respecto a la variable respuesta, el punto clave en los métodos propuestos es la correlación entre las coordenadas principales (construida con las variables explicativas) y la variable respuesta.
Los métodos propuestos se aplicaron a datos agronómicos (Concentración de calcio medido a una profundidad de 0-20 cm de Brasil) y climatológicos (Temperaturas medias diarias de la Tierra en Croacia en el año 2008). Los resultados de validación cruzada “leave-one-out” mostraron un buen rendimiento de los predictores propuestos, lo cual indica que se pueden utilizar como métodos alternos y validos a los tradicionales para el modelado de variables correlacionadas espacialmente y espacio-temporalmente, considerando siempre covariables en la remoción de la tendencia. / Space-time geostatistical analysis based on distances and splines with applications.
Innovations were proposed in the space and space-time prediction, based on geostatistical methods and radial basis function (RBF), considering distance-based methods. In this sense, through the distances between the explanatory variables, specifically incorporated in the regression based on distances, changes were proposed in: the universal kriging and interpolation with space and space-time splines using RBF.
The distance-based method is used in a geostatistical model to estimate the trend and the covariance structure. This strategy takes full advantage of existing information, because of the relationship between the observations, using a spectral decomposition of a selected distance and the corresponding principal coordinates.
For the universal kriging method proposed based on distances (DBUK), we performed a simulation study, which allowed to compare the predictive capacity of traditional universal kriging over universal kriging based on distances. The simulation study shows that the proposed method DBUK, is better than the traditional universal kriging method and was found a marked reduction of error associated with a smaller RMSPE, this reduction was generally greater than 10%.
Spatial and spatio-temporal spline interpolation in simulation studies possible to compare the performance of space and spatio-temporal radial basis functions, considering the trend in the principal coordinates generated from the mixed explanatory variables using the method based distances.
The proposed spatial interpolation methods based on distances with RBF (DBSIRBF) and spatio-temporal interpolation based on distances RBF (DBSTIRBF) analyzed through kriging structure whereas in the trend the principal coordinates, show good performance when working with large neighborhoods, indicating that in general will have less error associated with a smaller RMSPE. The key point in the proposed methods is the correlation between the principal coordinates (constructed with the explanatory variables) and the response variable.
The proposed methods were applied to agronomic data (concentration of calcium measured at a depth of 0-20 cm from Brazil) and climatological (average daily temperature of the Earth in Croatia in 2008). The results of cross-validation "leave-one-out" showed a good performance of the proposed predictors, indicating that can be used as alternative methods to traditional and valid for the modeling of spatially correlated variables in space and time, always considering covariates in the removal of the trend.
|
32 |
Stably stratified atmospheric boundary layer: study trough large-eddy simulations, mesoscale modelling and observationsJiménez Cortés, Maria Antònia 12 December 2005 (has links)
La capa límit atmosfèrica és l'àrea directament influenciada per la presència de la superfície de la terra i la seva alçada és d'uns centenars de metres a uns pocs quilòmetres. Durant el vespre, el refredament radiatiu estratifica establement l'aire prop del sòl i es forma el que es coneix com a Capa Límit Estable (CLE). D'avui en dia, la CLE és un règim que encara no està prou ben caracteritzat. La turbulència, que no és homogènia ni isòtropa, i la gran importància dels efectes locals com l'orografia, entre d'altres factors, dificulten l'estudi d'aquest règim. Per aquest motiu, la CLE és objecte d'especial atenció, sobretot a l'hora de millorar la seva representació en models tant de temps com de clima.Aquest treball es centra en l'estudi de la CLE mitjançant 3 eines diferents: 1) simulacions explícites de grans remolins (més conegudes com a simulacions LES), per determinar el comportament dels moviments turbulents, on les resolucions són de l'ordre de metres; 2) simulacions mesoscalars, per caracteritzar els efectes locals, on les resolucions són de l'ordre de kilòmetres; 3) anàlisi de les observacions sota aquestes condicions per tal de caracteritzar i entendre millor els fenòmens observats.En primer lloc s'estudia el rang d'estabilitats a on el model LES, que considera la teoria de Kolmogorov per la dissipació de l'energia, funciona correctament. Els resultats del model són realistes tal com mostra la seva comparació amb les mesures de dues campanyes experimentals (SABLES-98 i CASES-99). Per explorar més a fons els resultats LES i per comparar-los amb les mesures s'han utilitzat les Funcions de Distribució de Probabilitat (PDF). Aquests resultats LES són també comparables als obtinguts amb altres models LES, tal com mostra la intercomparació de models LES, més coneguda com a GABLS.Un cop desenvolupades totes les eines necessàries es fa un LES d'un cas més realista, basat en les observacions d'un màxim de vent de capes baixes (més conegut com a Low-Level Jet, LLJ). L'anàlisi combinat dels resultats LES i les mesures permet entendre millor els processos de barreja que tenen lloc a través de la inversió. Finalment, la contribució dels efectes locals s'estudia mitjançant les simulacions mesoscalars, en aquest cas centrades a l'illa de Mallorca. Durant el vespre es veu com les circulacions locals es desenvolupen a les conques (de longitud al voltant de 25km), formant-se, per exemple, vents catabàtics o LLJ com l'estudiat anteriorment. En aquest cas les simulacions es verifiquen amb imatges de satèl·lit NOAA i observacions de les estacions automàtiques de mesures, donant resultats semblants. / The atmospheric boundary layer is the area directly influenced by the presence of the Earth's surface and its height is from hundreds of meters to few kilometres. During the night, the radiative cooling stratifies the layer close to the surface and it forms the Stably-stratified Atmospheric Boundary Layer (SBL). Nowadays, the SBL is a regime not well enough characterized, yet. Turbulence, which is not homogeneous either isotropic, and the great importance of the local effects, like the orography, among other factors, make the SBL be a difficult regime to study. Even so, the SBL is an object of special attention, especially when improving its representation in numerical prediction models or climate models.This work focuses on the study of the SBL through 3 different tools: 1) Large-Eddy Simulations (LES), to determine the turbulent motions, where the resolutions are about 1m; 2) Mesoscale simulations, to characterize the local effects, where resolutions are about 1km; 3) Analysis of the observations under these conditions in order to better characterize and understand the observed phenomena.In first place, it is studied the range of stabilities where the LES model, that considers the Kolmogorov theory for the dissipation of the energy, works correctly. The results are realistic as the comparison with measures from two experimental campaigns (SABLES-98 and CASES-99) shows. To explore the results more thoroughly, and to compare the LES results to the measurements, the Probability Density Functions (PDF) have been used. The LES results are also comparable to the ones obtained with other LES models, as the intercomparison of different LES models show, better known as GABLS.Then, a more realistic case is performed using the LES model, based on observations of a Low-Level Jet (LLJ). The combined inspection of the LES results and the observations allow to better understand the mixing processes that take place through the inversion layer. Finally, the contribution of the local effects is studied through a mesoscale simulation. Here the attention is focused on the Mallorca Island. During the night, the model is able to reproduce the local circulations is a basin of a characteristic size of 25km. The main features obtained previously from the LES of the LLJ are also reproduced by the mesoscale model. These runs are verified with NOAA satellite images and observations from the automatic surface weather stations, giving that the model is able to reproduce realistic results.
|
33 |
Análisis neurocognitivo de la dinámica de las redes de memoria en el envejecimientoAdrover Roig, Daniel 07 May 2009 (has links)
Durant l'envelliment es dónen canvis estructurals i funcionals al cervell, especialment a l'escorça prefrontal, un dels substractes anatòmics responsables del control atencional. Aquest es va mesurar emprant tècniques neuropsicològioques i neurofuncionals durant l'execució de tasques de canvi amb senyals implícites (tipus WCST). 80 subjectes majors sans es varen dividir segons la seva edat i el seu nivell de control cognitiu. El baix control cognitiu (però no l'edat) s'associà a un augment dels costos residuals de resposta, en paral.lel amb una major amplitud del component P2 davant els senyals. L'edad avançada, en conjunt amb un baix nivell de control s'associà a un increment dels costos locals de resposta durant el canvi de tasca, paral.lelament amb l'augment de les ones lentes durant la fase de senyalització. Mantenir dues tasques en memòria es més difícil per als subectes amb baix control, reflexat per una reducció en l'amplitud de les ones lentes fronto-parietals
|
34 |
Funcions densitat i semblança molecular quàntica: nous desenvolupaments i aplicacionsGironés Torrent, Xavier 10 May 2002 (has links)
La present tesi, tot i que emmarcada dins de la teoria de les Mesures Semblança Molecular Quántica (MQSM), es deriva en tres àmbits clarament definits:- La creació de Contorns Moleculars de IsoDensitat Electrònica (MIDCOs, de l'anglès Molecular IsoDensity COntours) a partir de densitats electròniques ajustades.- El desenvolupament d'un mètode de sobreposició molecular, alternatiu a la regla de la màxima semblança.- Relacions Quantitatives Estructura-Activitat (QSAR, de l'anglès Quantitative Structure-Activity Relationships).L'objectiu en el camp dels MIDCOs és l'aplicació de funcions densitat ajustades, ideades inicialment per a abaratir els càlculs de MQSM, per a l'obtenció de MIDCOs. Així, es realitza un estudi gràfic comparatiu entre diferents funcions densitat ajustades a diferents bases amb densitats obtingudes de càlculs duts a terme a nivells ab initio. D'aquesta manera, l'analogia visual entre les funcions ajustades i les ab initio obtinguda en el ventall de representacions de densitat obtingudes, i juntament amb els valors de les mesures de semblança obtinguts prèviament, totalment comparables, fonamenta l'ús d'aquestes funcions ajustades. Més enllà del propòsit inicial, es van realitzar dos estudis complementaris a la simple representació de densitats, i són l'anàlisi de curvatura i l'extensió a macromolècules. La primera observació correspon a comprovar no només la semblança dels MIDCOs, sinó la coherència del seu comportament a nivell de curvatura, podent-se així observar punts d'inflexió en la representació de densitats i veure gràficament aquelles zones on la densitat és còncava o convexa. Aquest primer estudi revela que tant les densitats ajustades com les calculades a nivell ab initio es comporten de manera totalment anàloga. En la segona part d'aquest treball es va poder estendre el mètode a molècules més grans, de fins uns 2500 àtoms.Finalment, s'aplica part de la filosofia del MEDLA. Sabent que la densitat electrònica decau ràpidament al allunyar-se dels nuclis, el càlcul d'aquesta pot ser obviat a distàncies grans d'aquests. D'aquesta manera es va proposar particionar l'espai, i calcular tan sols les funcions ajustades de cada àtom tan sols en una regió petita, envoltant l'àtom en qüestió. Duent a terme aquest procés, es disminueix el temps de càlcul i el procés esdevé lineal amb nombre d'àtoms presents en la molècula tractada.En el tema dedicat a la sobreposició molecular es tracta la creació d'un algorisme, així com la seva implementació en forma de programa, batejat Topo-Geometrical Superposition Algorithm (TGSA), d'un mètode que proporcionés aquells alineaments que coincideixen amb la intuïció química. El resultat és un programa informàtic, codificat en Fortran 90, el qual alinea les molècules per parelles considerant tan sols nombres i distàncies atòmiques. La total absència de paràmetres teòrics permet desenvolupar un mètode de sobreposició molecular general, que proporcioni una sobreposició intuïtiva, i també de forma rellevant, de manera ràpida i amb poca intervenció de l'usuari. L'ús màxim del TGSA s'ha dedicat a calcular semblances per al seu ús posterior en QSAR, les quals majoritàriament no corresponen al valor que s'obtindria d'emprar la regla de la màxima semblança, sobretot si hi ha àtoms pesats en joc.Finalment, en l'últim tema, dedicat a la Semblança Quàntica en el marc del QSAR, es tracten tres aspectes diferents:- Ús de matrius de semblança. Aquí intervé l'anomenada matriu de semblança, calculada a partir de les semblances per parelles d'entre un conjunt de molècules. Aquesta matriu és emprada posteriorment, degudament tractada, com a font de descriptors moleculars per a estudis QSAR. Dins d'aquest àmbit s'han fet diversos estudis de correlació d'interès farmacològic, toxicològic, així com de diverses propietats físiques.- Aplicació de l'energia d'interacció electró-electró, assimilat com a una forma d'autosemblança. Aquesta modesta contribució consisteix breument en prendre el valor d'aquesta magnitud, i per analogia amb la notació de l'autosemblança molecular quàntica, assimilar-la com a cas particular de d'aquesta mesura. Aquesta energia d'interacció s'obté fàcilment a partir de programari mecanoquàntic, i esdevé ideal per a fer un primer estudi preliminar de correlació, on s'utilitza aquesta magnitud com a únic descriptor. - Càlcul d'autosemblances, on la densitat ha estat modificada per a augmentar el paper d'un substituent. Treballs previs amb densitats de fragments, tot i donar molt bons resultats, manquen de cert rigor conceptual en aïllar un fragment, suposadament responsable de l'activitat molecular, de la totalitat de l'estructura molecular, tot i que les densitats associades a aquest fragment ja difereixen degut a pertànyer a esquelets amb diferents substitucions. Un procediment per a omplir aquest buit que deixa la simple separació del fragment, considerant així la totalitat de la molècula (calcular-ne l'autosemblança), però evitant al mateix temps valors d'autosemblança no desitjats provocats per àtoms pesats, és l'ús de densitats de Forats de fermi, els quals es troben definits al voltant del fragment d'interès. Aquest procediment modifica la densitat de manera que es troba majoritàriament concentrada a la regió d'interès, però alhora permet obtenir una funció densitat, la qual es comporta matemàticament igual que la densitat electrònica regular, podent-se així incorporar dins del marc de la semblança molecular. Les autosemblances calculades amb aquesta metodologia han portat a bones correlacions amb àcids aromàtics substituïts, podent així donar una explicació al seu comportament.Des d'un altre punt de vista, també s'han fet contribucions conceptuals. S'ha implementat una nova mesura de semblança, la d'energia cinètica, la qual consisteix en prendre la recentment desenvolupada funció densitat d'energia cinètica, la qual al comportar-se matemàticament igual a les densitats electròniques regulars, s'ha incorporat en el marc de la semblança. A partir d'aquesta mesura s'han obtingut models QSAR satisfactoris per diferents conjunts moleculars. Dins de l'aspecte del tractament de les matrius de semblança s'ha implementat l'anomenada transformació estocàstica com a alternativa a l'ús de l'índex Carbó. Aquesta transformació de la matriu de semblança permet obtenir una nova matriu no simètrica, la qual pot ser posteriorment tractada per a construir models QSAR. / The present work, even embraced by the Molecular Quantum Similarity Measures (MQSM) theory, is divided into three clearly defined frameworks:- Creation of Molecular IsoDensity Contours (MIDCOs) from fitted electronic densities.- Development of an alternative superposition method to replace the maximal similarity rule.- Quantitative Structure-Activity Relationships (QSAR).The objective in field of MIDCOs is the application of fitted density functions, initially developed to reduce the computational costs of calculating MQSM, in order to obtain MIDCOs. So, a graphical comparison is carried out using different fittings to different basis sets, derived from calculations carried out at ab initio level. In this way, the visual analogy between the density representations, along with the values of previously calculated similarity measures, which in turn are fully comparable, reinforces the usage of such fitted densities.Apart from the initial idea, two further studies were done to complement the simple density representations, these are the curvature analysis and the extension to macromolecules. The first step corresponds not only to verify the visual similarity between MIDCOs, but to ensure their coherence in their behaviour at curvature level, allowing to observe inflexion points in the representations and those regions where the density itself presents a convex or concave shape. This first study reveals that both fitted and ab initio densities behave in the same way. In the second study, the method was extended to larger molecules, up to 2500 atoms.Finally, some of the MEDLA philosophy is applied. Knowing that electronic density rapidly decays as it is measured further from nuclei, its calculation at large distances from the nearest nucleus can be avoided. In this way, a partition of the space was proposed, and the fitted density basis set is only calculated for each atom only in its vicinity. Using this procedure, the calculation time is reduced and the whole process becomes linear with the number of atoms of the studied molecule.In the chapter devoted to molecular superposition, the creation of an algorithm, along with its practical implementation, called Topo-Geometrical Superposition Algorithm (TGSA), able to direct those alignments that coincide with chemical intuition. The result is an informatics program, codified in Fortran 90, which aligns the molecules by pairs, considering only atomic numbers and coordinates. The complete absence of theoretical parameters allows developing a general superposition method, which provides an intuitive superposition, and it is also relevant, in a fast way without much user-supplied information. Major usage of TGSA has been devoted to provide an alignment to later compute similarity measures, which in turn do not customarily coincide with those values obtained from the maximal similarity rule, most if heavy atoms are present.Finally, in the last studied subject, devoted to the Quantum Similarity in the QSAR field, three different scopes are treated:1) Usage of similarity matrices. Here, the so-called similarity matrix, calculated from pairwise similarities in a molecular set, is latterly, and properly manipulated, used a source of molecular descriptors for QSAR studies. With in this framework, several correlation studies have been carried out, involving relevant pharmacological properties, as well as toxicity and physical properties.2) Application of the electron-electron repulsion energy. This simple contribution consists briefly of taking the value of this magnitude, and by analogy with the self-similarity notation, it is assimilated as a particular case of this measure. This interaction energy is easily obtainable from mecanoquantic software and becomes ideal in order to make a preliminary correlation study, where this magnitude is used as a single descriptor.3) Calculation of self-similarities, where the density has been modified to account a particular substituent. Previous studies using density fragments, even they provide valuable results, lack of conceptual rigour when isolating a fragment, supposed to be responsible for a particular molecular response, even those densities associated to a particular fragment are already different due to they belong to a common skeleton with different substitutions. A procedure able to fill the gap between usage of density fragments , which avoid the heavy atom effect, and the whole molecular density, which allows to compute a self-similarity, is proposed. It consists of using Fermi Hole density functions, where the holes are defined and averaged around a particular fragment. This procedure medifies the density in a way that is basically collapsed in this molecular bay, but allowing at the same time obtaining a a density function that behaves mathematically in the same way as a regular electronic density; hence it is included in the similarity framework. Those self-similarities computed using this procedure provide good correlations with substituted aromatic acids, allowing to provide an explanation for their acidic behaviour.From another point of view, conceptual contributions have been developed. A new similarity measure, Kinetic Energy-based, has been implemented, which consists of taking the recently developed Kinetic Energy density function, which has been incorporated into the similarity framework due to it mathematically behaves like a regular density function. Satisfactory QSAR models, derived from this new measure, have been obtained for several molecular systems. Within the similarity matrices field, it has been implemented a new scaling, called stochastic transformation, as an alternative to Carbó Index. This transformation of the matrix allows obtaining a new non-symmetric matrix, which can be later used as a source of descriptors to build QSAR model.
|
35 |
Early life factors influencing neurodevelopment and the study of the interrelations between different behavioural areasJúlvez Calvo, Jordi 27 September 2007 (has links)
Antecedents: No hi ha gaire coneixement sobre el neurodesenvolupament de preescolars i la seva susceptibilitat enfront a factors ambientals. Objectius: Avaluar les respostes del neurodesenvolupament en nens i les seves característiques psicomètriques, i, si factors ambientals primerencs (ex., duració de la lactància materna i mares que fumen) poden influir tals respostes. Mètodes: Dues cohorts prospectives des del naixement en població general (Menorca (N=421) i Ribera d'Ebre (N=79)) van se seguides fins als 4 anys d'edat durant un període de dos anys (2001-2003). Els nens van ser avaluats per tres psicòlegs i els seus respectius mestres per les funcions neuropsicològiques (MCSA), els comportaments de dèficit d'atenció i d'hiperactivitat (TDAH-DSM-IV) i la competència social (CPSCS); junt amb l'administració (en persona) a les mares de qüestionaris generals.Resultats: Les respostes van mostrar característiques psicomètriques acceptables i els patrons neuropsicològics del TDAH eren consistents amb altres troballes sobre TDAH. La lactància materna de llarga durada estava associada amb una millora de totes les àrees comportamentals avaluades. Fumar durant l'embaràs estava associat a puntuacions cognitives més baixes.Conclusions: Avaluar el neurodesenvolupament a preescolars sans és factible i necessari per investigar efectes primerencs de factors ambientals i aplicar polítiques preventives de salut pública. / Background: Little is known about neurodevelopment among preschoolers and its susceptibility to environmental factors.Objectives: Assess neurodevelopmental outcomes and their psychometric characteristics in children; and, if early environmental factors (i.e., duration of breastfeeding and maternal smoking) influence the neurobehavioral outcomes. Methods: Two prospective population-based birth cohorts (Menorca (N=421) and Ribera d'Ebre county (N=79)) were followed up at the age of 4 years during a two year period (2001-2003). Children were assessed by three psychologists and their respective teachers for neuropsychological functions (MCSA), inattention-hyperactivity behaviors (ADHD-DSM-IV) and social behavior (CPSCS); in addition to maternal in person general questionnaires. Results: Outcomes showed acceptable psychometric characteristics and ADHD neuropsychological patterns were consistent with other ADHD findings. Long-term breastfeeding was associated with the improvement of all behavioral areas assessed. Maternal smoking during pregnancy was associated with lower cognitive scores.Conclusions: Assessing neurodevelopment in healthy preschoolers is feasible and necessary to investigate early effects of environmental factors and apply public health preventive policies.
|
36 |
El arancel de los funcionarios públicos: un estudio de Derecho TributarioNavarro Gómez, Ricardo 09 March 2002 (has links)
La tesis pretende conciliar dos realidades tradicionalmente alejadas entre sí como son la retribución mediante arancel de ciertos funcionarios públicos y el Derecho Tributario. Un alejamiento aparente ya que el arancel no pasa inadvertido para esta disciplina, como lo atestigua su encaje sistemático en la parafiscalidad, concepto que designa a aquellos ingresos que, a pesar de revestir naturaleza tributaria, no se someten al ordenamiento tributario. Siguiendo un criterio metodológico clásico, se sustenta la naturaleza tributaria parafiscal del arancel partiendo de los rasgos de su régimen jurídico. Como idea final se deduce la existencia de una prestación que requiere un profundo cambio en su estructura jurídica, sin perjuicio de las dificultades que ello entrañaría, dado que ello nos podría conducir a otro debate de honda repercusión política, social y económica como es el de la organización jurídica de los fedatarios públicos en España. / The thesis tries to provide a common study between two concepts traditionally opposed in its scientific treatment as the payment of certain civil servants -public notaries and Register Office- with 'arancel' -Spanish formal denomination- and the Spanish Tax Law. Despite it´s not ruled by tax laws, the 'arancel' shares the nature of taxes, according to Spanish Tax General Act. Initially we introduce its present structure and then afterwards we propose it as a tax This figure requires a deep change in its legal structure. However, we are aware of finding serious difficulties in our proposal, because we are treating a matter which could imply discussing about another important question not only in legal points of view but also political, economic and social about the opportunity of modifying the regulation of civil servants who are entitled to give services of public faith in Spanish Law.
|
Page generated in 0.065 seconds