Tesis Doctorals - Departament - Matemàtica Econòmica, Financera i Actuarial
URI permanent per a aquesta col·leccióhttps://hdl.handle.net/2445/42108
Examinar
Enviaments recents
Mostrant 1 - 20 de 33
Tesi
Decisiones uniperiódicas y decisiones multiperiódicas en la teoría de selección de carteras(Universitat de Barcelona, 1994) Sáez Madrid, José B.; Borrell, Máximo; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[spa] Este trabajo realiza, en primer lugar, un estudio y clasificación de los problemas de decisión en general, aplicándose posteriormente a la toma de decisiones en problemas uniperiódicos haciendo hincapié en los criterios de eficiencia que ayudan al sujeto decisor a eliminar alternativas no eficientes, apoyándose en la teoría de la utilidad para la toma de la decisión final. En segundo lugar, se estudia el problema específico de carteras desde la perspectiva del contexto uniperiódico de decisión, terminando con un estudio y clasificación de los modelos multiperiódicos más importantes de selección de carteras, a partir de los cuales se justifica y desarrolla, bajo ciertas hipótesis, un conjunto de modelos que se enmarcan en la línea denominada de modelos consumo-inversión multiperiódicos, y más concretamente, de aquellos que emplean funciones de utilidad cuadráticas.Tesi
Análisis de las contribuciones marginales en contextos cooperativos(Universitat de Barcelona, 2001-06-19) Martínez de Albéniz, F. Javier; Rafels, Carles; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[spa] Dentro de la teoría de los juegos cooperativos, las contribuciones marginales han tenido una gran importancia, especialmente en la teoría normativa del vapor de Shapley. En esta tesis se analiza la envoltura convexa de estos vectores de contribuciones marginales, que se denomina conjunto de Weber. Se estudian las relaciones entre el conjunto de Weber y el conjunto de las imputaciones con diversas caracterizaciones. También la intersección de los conjuntos de Weber de juegos ordenados con el orden usual. En la segunda parte se describe el modelo de los juegos con grupos homogéneos que representa una generalización de los juegos ordinarios. Se analizan diversos conjuntos de solución, así como condiciones para que el Core sea no vacío. También se describe el valor de Shapley y el conjunto de Weber en este caso. Por último se analiza la convexidad en este modelo y se dan condiciones para encontrar juegos convexos con grupos homogéneos.Tesi
Control dinámico-estocástico de la solvencia de los planes de pensiones(Universitat de Barcelona, 1992) Claramunt Bielsa, M. Mercè; Alegre Escolano, Antonio; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[spa] En la presente tesis se plantea y desarrolla un modelo dinámico-estocástico de planes de pensiones destinado al estudio de la solvencia de los mismos. El modelo viene calificado, en primer lugar, de estocástico pues la solvencia en una cuestión probabilística y para el estudio de la misma es necesario un planteamiento estocástico y la consideración de las variables aleatorias implicadas (nos centramos en concreto en la aleatoriedad de la mortalidad de los partícipes). En segundo lugar, el modelo se califica como dinámico pues el mismo permite el estudio de la solvencia del plan en el origen (solvencia estática) definiéndose entonces las primas recargadas, el recargo de seguridad y el coste de la solvencia; y también el estudio de la solvencia en los distintos momentos de desarrollo del plan (solvencia dinámica), definiéndose las reservas matemáticas, de solvencia, totales y las reservas libres.Tesi
Essays on assignment markets: Vickrey outcome and Walrasian Equilibrium(Universitat de Barcelona, 2017-06-09) Robles Jiménez, Francisco Javier; Núñez, Marina (Núñez Oliva); Martínez de Albéniz, F. Javier; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[eng] This thesis is devoted mainly to the study of assignment problems in two- sided markets. The thesis is divided into three parts. The underlying objective of this division is to provide different perspectives to the analysis of allocations of indivisible objects. Essentially, we explore three distinct processes to determine allocations: the Walrasian economy in which trades are regulated by a system of prices and budget constraints, the cooperative game of exchange among coalitions of the traders, and a noncooperative approach. The second chapter of this thesis, One-seller assignment markets: core and Walrasian equilibrium is devoted to the study of markets in which there is a single seller and many buyers. The seller is the owner of multiple indivisible objects and these could be heterogeneous, e.g., houses, cars. On the other side of the market, every buyer wants to purchase a fixed amount of objects. The aim of this chapter is to study the relationship between the core of the cooperative game (see e.g., Peleg and Sudhölter, 2007) associated with the market and the set of Walrasian equilibria of the market. In general, it has been shown that in generalizations of the assignment game (Shapley and Shubik, 1972), the core and the set of payoff vectors associated with Walrasian equilibria do not coincide (see e.g., Massó and Neme, 2014). Our first result shows that the cooperative game associated with the market is buyers-submodular (Ausubel and Milgrom, 2001). As a consequence, the core is non-empty and it has a lattice structure. The most important result of this chapter offers a characterization of the coincidence between the core and the set of payoff vectors associated with the Walrasian equilibria. In the third chapter, An implementation of the Vickrey outcome with gross- substitutes, we analyze exchanges in markets with only one seller and many buyers. The seller owns a finite set of indivisible objects on sale. In this chapter, we assume that each buyer has a valuation in terms of money for each package of objects on sale. In fact, we impose a monotonic property and the Gross-substitutes condition (see e.g., Gul and Stacchetti, 1999). The purpose of this chapter is to study the strategic behavior of agents in a non- cooperative environment under the assumption of complete information. The chapter provides a non-cooperative game or mechanism in which each buyer makes a purchase offer to the seller. Then, the seller responds by selecting an allocation and a price for each package to be assigned. We show that every Subgame Perfect Nash equilibrium of the mechanism leads to a Vickrey outcome (see e.g., Vickrey, 1978 and Milgrom, 2004). That is, the allocation of the objects is efficient and each buyer receives a payoff equivalent to his marginal contribution to the whole market. In the last chapter, Axioms for the minimum Walrasian equilibrium in assignment problems with unitary demands, we consider a group of buyers who wish to purchase items on sale. In particular, each buyer can acquire at most one object and has a preference over pairs formed by an indivisible object and money. Essentially, the domain of preferences considered in this chapter includes the domain of quasi-linear preferences. It is assumed that an institution will determine a rule for the assignment of objects. Of course, a fundamental question is how to allocate the objects? In previous works such as Demange and Gale (1985) and Morimoto and Serizawa (2015), it is shown that the minimum Walrasian equilibrium as an allocation rule satisfies outstanding properties such as envy-freeness and strategy- proofness. In this chapter, we provide a new characterization for the rule that selects minimum Walrasian equilibrium in both domains, general and quasi-linear preferences.Tesi
Decision Analysis, Uncertainty Theories and Aggregation Operators in Financial Selection Problems(Universitat de Barcelona, 2017-04-18) Yusoff, Binyamin; Ceballos Hornero, David; Merigó Lindahl, José M.; Ortí Celma, Francesc J. (Francesc Josep); Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[eng] The complexity of financial analysis, particularly on selection process or decision making problems, has increased rapidly over several decades. As a result, much attention has been focused on developing and implementing the efficient mathematical models for supporting this kind of problems. Multiple criteria decision analysis, an advanced field of operations research provides analysts or decision makers a broad range of methodologies, which are all suited to the complexity of financial decision analysis. In the financial modeling, uncertainty problems are inevitable, owing to the fact that the consequences of events are not precisely known. In addition, human judgments as part of analysis also contribute to it intricacy. Correspondingly, many studies have been concentrated on integrating uncertainty theories in modeling the real financial problems. One area of interest is on the inclusion of the element of human behavior or attitudinal character of decision makers. Aggregation operator in this case can offer a wide spectrum of analysis or flexibility in modeling the human behavior in financial decision analysis. In general, the main purpose of this work is on the study of financial selection problems from the perspective of decision analysis, uncertainty theories and aggregation operators. To be specific, the decision problems under a finite or discrete case and multidimensional factors are studied. The emphasis is given on the group decision making models, notably, the Dempster-Shafer theory (DST) of belief structure, the analytic hierarchy process (AHP) and the technique for order performance by similarity to ideal solution (TOPSIS). Moreover, the uncertainty theories based on fuzzy set theory and imprecise probability are employed, together with information fusion based on the ordered weighted average (OWA) operators. Quantitative and qualitative preferences, decision strategies based on the attitudinal character of decision makers, and majority concepts for group consensus are highlighted. The specific contributions of this work are summarized as the following: • The first contribution is on developing the multi-expert multi-criteria decision making (ME-MCDM) model with respect to two-stage aggregation processes. In specific, the aggregation of criteria is based on the integration of weighted arithmetic mean (WA) and OWA. The main attention is given on the proposed alternative OWAWA operator as an extension of immediate WA and OWAWA operators. Two approaches for modeling the majority opinion of experts are studied, in which based on the induced OWA (IOWA) operators. Some modifications to the support functions are suggested as to derive the order inducing variables. The analysis of ME-MCDM model based on these aggregation processes then is conducted. In this study the selection of investment strategy is used as to exemplify the model. • The weighted-selective aggregated majority-OWA operator may be considered as the second contribution. It is as an extension of the SAM-OWA operator, where the reliability of information sources is considered. The WSAM-OWA then is generalized to the quantified WSAM-OWA by incorporating the concept of linguistic quantifier, mainly for the group fusion strategy. The QWSAM-IOWA with an ordering step is proposed for the individual fusion strategy. These aggregation operators are then implemented to the case of alternative scheme of heterogeneous group decision analysis, in particular for a selection of investment problem. • Third contribution is represented by the development of linguistic group decision making with Dempster-Shafer belief structure. Different type of linguistic aggregation operator such as the 2-tuple induced linguistic OWA operator is suggested. Specifically, it is based on order-inducing variables in which the ordering of the arguments and uncertain situations can be assessed with linguistic information. Then, by using the 2-TILOWA in the D-S framework, the belief structure-2-TILOWA operator can be formed. Some of its main properties are studied. This model is applied in a selection of financial strategies. • The extension of AHP for group decision making model is given as the fourth contribution, notably, based on the inclusion of IOWA operators. Two-stage aggregation processes used in the AHP-GDM model are extended. Firstly, a generalization of weighted maximal entropy OWA under the IOWA operator is proposed as to aggregate the criteria. Further, the majority concept based on the IOWA and Minkowski OWA-based similarity measure is suggested to determine a consensus among experts. This model provides a variant of decision strategies for analyzing the individual and the majority of experts. The application in investment selection problem is presented to test the reliability of the model. • The fifth contribution is on the integration of heavy ordered weighted geometric (HOWG) aggregation operators in AHP-GDM model. In the sense of heavy OWA operator (HOWA), the heavy weighted geometric (HWG) and HOWG are introduced as extensions of the normal weighted geometric mean (WG) and the OWG by relaxing the constraints on the associated weighting vector. These HWG and HOWG operators then are utilized in the aggregation process of AHP-GDM, specifically on the aggregation of individual judgments procedure. The main advantage of the model, besides the complete overlapping of information such in classical methods, is that it can also accommodate partial and non-overlapping information in the formulation. An investment selection problem is applied to demonstrate the model. • The extension of TOPSIS for group decision making model by the inclusion of majority concept may be considered as the sixth contribution. The majority concept is derived based on the induced generalized OWA (IGOWA) operators. Two fusion schemes in TOPSIS model are designed. First, an external fusion scheme to aggregate the experts’ judgments with respect to the concept of majority opinion on each criterion is suggested. Then, an internal fusion scheme of ideal and anti-ideal solutions that represents the majority of experts is proposed using the Minkowski OWA distance measures. The comparison of the proposed model with some other TOPSIS models with respect to distance measures is presented. Here, a general case of selection problem is presented, specifically on the human resource selection problem. • Finally, the group decision making model based on conflicting bifuzzy sets (CBFS) is proposed. Precisely, the subjective judgments of experts, mainly from positive and negative aspects are considered simultaneously in the analysis. Moreover, the weighting method for the attribute (or sub-attribute) is subject to the integration of subjective and objective weights. The synthesis of CBFS in the model is naturally done by extending the fuzzy evaluation in parallel with the intuitionistic fuzzy set. A new technique to compute the similarity measure is proposed, in which, being the degree of agreement between the experts. The model then is applied in the case study of flood control project selection problem. To sum up, the presented thesis dealt with the extension of multi-criteria decision analysis models for the financial selection problems (as a specific scope) and also the general selection problems with the inclusion of attitudinal character, majority concept and fuzzy set theory. In particular, the group decision making model, Dempster-Shafer belief structure, AHP and TOPSIS are proposed to overcome the shortcoming of the existing models, i.e., related to the financial decision analysis. The applicability and robustness of the developed models have been demonstrated and some sensitivity analyses are also provided. The main advantages of the proposed models are to provide a more general and flexible models for a wider analysis of the decision problemsTesi
Essays on multi-sided assignment markets(Universitat de Barcelona, 2017-03-10) Atay, Ata; Núñez, Marina (Núñez Oliva); Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[eng] This dissertation covers the study of assignment problems in a game theoretical framework, focusing on multi-sided assignment games and stability notions. In Chapter 2, we provide some preliminaries on assignment markets and assignment games. We give some needed definitions and crucial results with their proof. In Chapter 3, a generalization of the classical three-sided assignment market is considered, where value is generated by pairs or triplets of agents belonging to different sectors, as well as by individuals. For these markets we represent the situation that arises when some agents leave the market with some payoff by means of a generalization of Owen (1992) derived market. Consistency with respect to the derived market, together with singleness best and individual anti-monotonicity, axiomatically characterize the core for these generalized three-sided assignment markets. When one sector is formed by buyers and the other by two different type of sellers, we show that the core coincides with the set of competitive equilibrium payoff vectors. In Chapter 4, we consider a multi-sided assignment game with the following characteristics: (a) the agents are organized in m sectors that are connected by a graph that induces a weighted m-partite graph on the set of agents, (b) a basic coalition is formed by agents from different connected sectors, and (c) the worth of a basic coalition is the addition of the weights of all its pairs that belong to connected sectors. We provide a sufficient condition on the weights to guarantee balancedness of the related multi-sided assignment game. Moreover, when the graph on the sectors is cycle-free, we prove the game is strongly balanced and the core is described by means of the cores of the underlying two-sided assignment games associated with the edges of this graph. Moreover, once selected a spanning tree of the cycle-free graph on the sectors, the equivalence between core and competitive equilibria is established. In Chapter 5, we focus on two-sided assignment games. Solymosi and Raghavan (2001) characterizes the stability of the core of the assignment game by means of a property of the valuation matrix. They show that the core of an assignment game is a von Neumann-Morgenstern stable set if and only if its valuation matrix has a dominant diagonal. Their proof makes use of some graph-theoretical tools, while the present proof relies on the notion of buyer-seller exact representative in Núñez and Rafels (2002). In Chapter 6, we study von Neumann-Morgenstern stability for three-sided assignment games. Since the core may be empty in this case, we focus on other notions of stability such as the notions of subsolution and von Neumann-Morgenstern stable sets. The dominant diagonal property is necessary for the core to be a stable set, and also sufficient in case each sector of the market has only two agents. Furthermore, for any three-sided assignment market, we prove that the union of the extended cores of all mu- compatible subgames, for a given optimal matching mu, is the core with respect to those allocations that are compatible with that matching, and it is always non-empty.Tesi
Rationing problems: Extensions and Multi-issue analysis(Universitat de Barcelona, 2016-11-08) Timoner Lledó, Pere; Izquierdo Aznar, Josep Maria; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[eng] This thesis concerns itself with the study of situations in which a group of agents lay separate claims to a scarce resource. These situations are as old as the discipline of economics itself; indeed, a number of ancient documents including the works of Aristotle, the essays of Maimonides and the Babylonian Talmud address this very old problem. Despite the ancient nature of these texts, these situations were not tackled formally until the early eighties by O'Neill (1982), who provided an extremely simple mathematical model to explain a wide variety of economic problems, including, among others, the assignment of taxes, bankruptcy, the distribution of emergency supplies and cost-sharing of a public good. In general we can refer to these situations as problems of adjudicating conflicting claims or (standard) rationing problems. The present study seeks to enrich rationing problems from different perspectives: * In Chapter 2 we introduce an extension of the standard rationing model, in which agents are not only identified by their respective claims to some amount of a scarce resource, but also by some exogenous ex-ante conditions (initial stock of resource or net worth of agents, for instance), other than claims. The essence of this chapter is that those agents who have less (with a worse ex-ante condition) should somehow be given some priority over those who have more (with a better ex-ante condition). Within this framework, we define a generalization of the constrained equal awards rule and provide two different characterizations of this generalized rule. Finally, we use the corresponding dual properties to characterize a generalization of the constrained equal losses rule. * In Chapter 3 we present a variant of the multi-issue rationing model, where agents stake their claim for several issues. In this variant, the amount of resource available for each issue is constrained to a quantity fixed a priori according to exogenous criteria. The aim is to distribute the amount corresponding to each issue while taking into account the allocation for the remaining issues (issue-allocation interdependence). We name these problems constrained multi-issue allocation situations (CMIA). In order to solve these problems, we first reinterpret some single-issue (standard) egalitarian rationing rules as a minimization program based on the idea of finding a feasible allocation that lies as close as possible to a specific reference point. We extend this family of egalitarian rules to the CMIA framework. Specifically, we extend the constrained equal awards rule, the constrained equal losses rule and the reverse Talmud rule to the multi-issue rationing setting, which are found to be particular cases of a family of rules, namely the extended α-egalitarian family. This family is analysed and characterized by using consistency principles (over agents and over issues) and a property based on the Lorenz-dominance criterion. * Finally, in Chapter 4 we consider how to solve a rationing problem in which the resource cannot be directly assigned to agents. We propose a two-stage procedure in which the resource is first allocated to groups of agents and then divided among their members. We name these situations decentralized rationing problems. Within this framework, we define extensions of the constrained equal awards, the constrained equal losses and the proportional rules. We show that the first two rules do not preserve certain essential properties and prove the conditions under which both rules do preserve those properties. We characterize the extension of the proportional rule as the only solution that satisfies individual equal treatment of equals. Furthermore, we prove that the proportional rule is the only solution that assigns the same allocation regardless of whether the resource is distributed directly to agents or in a decentralized manner (with agents grouped). Finally, we analyse a strategic game based on decentralized rationing problems in which agents can move freely across groups to submit their claims.Tesi
Hedge Funds: Inferencia del riesgo en un escenario real de estrés severo(Universitat de Barcelona, 2016-01-15) Martínez Buixeda, Raül; Alegre Escolano, Antonio; Sáez Madrid, José B.; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i ActuarialLa expansión de la industria de los hedge funds a lo largo del presente siglo ha sido extraordinaria, especialmente hasta el estallido de la crisis subprime. Según estimaciones de HFR publicadas por CAIA en 2014 los activos bajo gestión de single hedge funds y fund of hedge funds pasaron de 456,43 millardos de USD en 1999 a 1,87 billones de USD en 2007. La exposición de los hedge funds a factores de riesgo no convencionales, con distribuciones de rentabilidad poco habituales en la industria de la gestión tradicional, y su alto grado de opacidad, han propiciado un aumento sustancial de la tecnicidad del portfolio risk management y la proliferación de opiniones poco rigurosas en la materia. El escenario de estrés proporcionado por la crisis subprime (agosto 2007 -septiembre 2009), permite contrastar y completar el verdadero trade-off rentabilidad-riesgo del universo de los hedge funds. En este sentido, para inferir el comportamiento del riesgo de las distintas estrategias hedge a escenarios de estrés similares al acaecido durante la crisis subprime, la presente tesis propone: 1) ajustar a las distribuciones empíricas de rentabilidad una mixtura de dos Normales estimada a partir del método de los momentos, y 2) analizar el comportamiento del riesgo extremo y el riesgo absolute return. Dado que las muestras vinculadas al periodo subprime, el cual es acotado por la evolución de las componentes del TED spread, son relativamente pequeñas y en ocasiones están distribuidas de forma "extrema", se hace imprescindible la estimación no sesgada de los momentos muestrales (incluido el momento central de quinto orden). Además, para poder completar el proceso de inferencia, ha sido necesario iniciar desde múltiples orígenes el proceso iterativo de búsqueda de soluciones, discriminar las soluciones obtenidas a partir de propiedades de la combinación lineal convexa de las mixturas, y agrupar las estrategias en función del riesgo utilizando la metodología K-means. Por último, la tesis aborda el análisis de la dinámica del riesgo hedge donde se examinan las diferencias de comportamiento del riesgo extremo y del riesgo absolute return entre el periodo pre-subprime (referencia del periodo en ausencia de estrés severo) y el periodo subprime.Tesi
Modelos basados en distancias con aplicación a la gestión del riesgo en el ámbito actuarial(Universitat de Barcelona, 2015-11-20) Costa Cor, Teresa; Boj del Val, Eva; Fortiana Gregori, Josep[spa] El trabajo se centra en el estudio de metodologías estadísticas para la solución de problemas reales de las carteras de seguros no vida. Se describe a nivel teórico el Modelo Lineal Generalizado, que ya se aplica en la literatura actuarial en tarificación, credit scoring y cálculo de provisiones. Se describen teóricamente los modelos de regresión basados en distancias y se propone el Modelo Lineal Generalizado Basado en Distancias como una metodología alternativa para dar solución a los problemas expuestos. Para la obtención de resultados numéricos utilizando datos de carteras de seguros no vida se hace uso del software R y cabe destacar la librería dbstats, en la que se han implementado los modelos de regresión basados en distancias. Se definen coeficientes de influencia locales para el Modelo Lineal Generalizado Basado en Distancias que permiten medir la importancia relativa de cada variable observada en la siniestralidad esperada. Se definen coeficientes de influencia para predictores cuantitativos y para predictores cualitativos o binarios. Se construyen intervalos de confianza para los coeficientes de influencia basados en el percentil de la distribución bootstrap a partir de una adaptación del test de Wald. Se incluye una aplicación práctica con datos de seguro a terceros de automóviles de Suecia en el problema de tarificación para calcular los coeficientes de influencia y construir intervalos de confianza para contrastar su significación. Se estudia la aplicación del modelo de regresión logística basado en distancias en credit scoring para estimar las probabilidades de insolvencia de los nuevos clientes que soliciten un crédito. Para elegir el modelo de credit scoring se consideran dos criterios: las probabilidades de mala clasificación de los individuos y el coste de error. El objetivo es minimizar la probabilidad de mala clasificación de los nuevos individuos para evitar conceder un crédito a un mal riesgo de crédito o denegarlo a un buen riesgo de crédito y analizar los costes de dicha clasificación incorrecta. Se proponen distintas maneras de elegir el punto de corte adecuado para unos datos en el modelo de regresión logística basado en distancias. Se realiza una aplicación con datos de riesgo de crédito de una entidad financiera australiana y de una entidad financiera alemana y se comparan los resultados obtenidos con otras metodologías de credit scoring que han sido propuestas por diversos autores en el problema de riesgo de crédito. Se describen los principales métodos de cálculo de la provisión de siniestros pendientes en los seguros no vida, tanto deterministas como estocásticos. Se propone la aplicación del Modelo Lineal Generalizado Basado en Distancias para estimar los pagos futuros que deberá realizar la entidad aseguradora. Se deduce la formulación relativa al error de predicción cometido en los pagos futuros por años de calendario a partir de una expresión analítica y a partir de bootstrap. Por último, se definen diferentes formas de incluir márgenes de riesgo en el cálculo de provisiones teniendo en cuenta el contexto de la Directiva Europea Solvencia II. Se utilizan unos datos de importes de siniestros pagados durante diez años que han sido usados por diversos autores en sus aplicaciones prácticas dentro de la literatura actuarial y se estiman los pagos futuros que sirven de base para calcular la provisión incluyendo márgenes de riesgo con sentido estadístico.Tesi
Análisis del caos en series temporales financieras vía el estudio de atractores(Universitat de Barcelona, 2013-12-13) Gil Doménech, Maria Dolors; Alegre Escolano, Antonio[spa] La tesis consiste en la proposición de una metodología para la búsqueda de caos vía el análisis de atractores, con el objetivo de determinar si diversas series financieras presentan comportamientos caóticos. El estudio se realiza mediante la aplicación de algoritmos que testan las propiedades del caos en series temporales. La teoría del caos permite atribuir reglas deterministas a fenómenos aparentemente aleatorios. Gracias al determinismo inherente a los sistemas caóticos es posible, dentro de un cierto rango, hacer predicciones sobre su comportamiento a corto plazo. Sin embargo, esta predictibilidad desaparece a medio y largo plazo, dado que una de las características principales de los sistemas caóticos es su sensibilidad a las condiciones iniciales, por la cual una pequeña modificación de estas condiciones produce importantes cambios en el sistema con el paso del tiempo. De lo anterior se deriva la importancia que tiene la búsqueda de caos en los mercados financieros, ya que el paso de una concepción de mercado aleatoria a una caótica justificaría el uso de técnicas de previsión a corto plazo. Un sistema caótico se caracteriza por tener órbitas densas, ser topológicamente transitivo y ser sensible a las condiciones iniciales. Las dos primeras características implican la presencia de un atractor, esto es, una zona del espacio hacia la que tienden las trayectorias del sistema. Por su parte, la sensibilidad a las condiciones iniciales hace que las trayectorias se muevan de un modo impredecible a medio y a largo plazo dentro del atractor, y que este pueda calificarse de caótico. Así, dado que un sistema se considera caótico si presenta un atractor caótico, en la tesis se estudia el sistema financiero desde una perspectiva caótica, y para ello se propone una metodología que pretende analizar la presencia de este tipo de atractor en series temporales, y que consiste en la aplicación de algoritmos que testan las características de los sistemas caóticos. Para detectar la presencia de órbitas densas el algoritmo propuesto se basa en el “test de diferencias cercanas”. La transitividad topológica se analiza a través de un algoritmo propio. Por último, el algoritmo usado para testar la sensibilidad a las condiciones iniciales se basa en el estudio de los valores propios de la matriz de cambio de estado.Tesi
Heterogeneous discounting. Time consistency in investment and insurance models(Universitat de Barcelona, 2012-01-18) De Paz Monfort, Abel; Marín Solano, Jesús; Navas, Jorge; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[eng]In Chapter 2 we extend the heterogeneous discounting model introduced in Marín-Solano and Patxot (2012) to a stochastic environment. Our main contribution in this chapter is to derive the DPE providing time-consistent solution for both the discrete and continuous time case. For the continuous time problem we derive the DPE following the two different procedures described above: the formal limiting procedure and the variational approach. However, an important limitation of these approaches is that the DPE obtained is a functional equation with a nonlocal term. As a consequence, it becomes very complicated to find solutions, not only analytically, but also numerically. For this reason, we also derive a set of two coupled partial differential equations which allows us to compute (analytically or numerically) the solutions for different economic problems. In particular, we are interested in analyzing how time-inconsistent preferences with heterogeneous discounting modify the classical consumption and portfolio rules (Merton (1971)). The introduction of stochastic terminal time is also discussed. In Chapter 3, the results of Chapter 2 are extended in several ways. First, we consider that the decision maker is subject to a mortality risk. Within this context, we derive the optimal consumption, investment and life insurance rules for an agent whose concern about both the bequest left to her descendants and her wealth at retirement increases with time. To this end we depart from the model in Pliska and Ye (2007) generalizing the individual time preferences by incorporating heterogeneous discount functions. In addition, following Kraft (2003), we derive the wealth process in terms of the portfolio elasticity with respect to the traded assets. This approach allows us to introduce options in the investment opportunity set as well as to enlarge it by any number of contingent claims while maintaining the analytical tractability of the model. Finally, we analyze how the standard solutions are modified depending on the attitude of the agent towards her changing preferences, showing the differences with some numerical illustrations. In Chapter 4 we extend the heterogeneous discount framework to the study of differential games with heterogeneous agents, i.e., agents who exhibit different instantaneous utility functions and different (but constant) discount rates of time preference. In fact, although the non-standard models have usually focused on individual agents, the framework has proved to be useful in the study of cooperative solutions for some standard discounting differential games. Our main contribution in this chapter is to provide a set of DPE in discrete and continuous time in order to obtain time-consistent cooperative solutions for $N$-person differential games with heterogeneous agents. The results are applied to the study of a cake eating problem describing the management of a common property exhaustible natural resource. The extension to a simple common renewable natural resource in infinite horizon is also discussed. Finally, in Chapter 5, we present a summary of the main results of the thesis.Tesi
Política de dividendos en una cartera de seguros no vida: Un análisis desde la teoría colectiva del riesgo(Universitat de Barcelona, 2002-03-14) Mármol, Maite; Alegre Escolano, Antonio; Claramunt Bielsa, M. Mercè; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[spa] El análisis de la solvencia en las carteras de seguros no vida es un tema que ha sido muy tratado en la literatura actuarial generando una amplia bibliografía. Las hipótesis y los riesgos analizados han ido ampliándose, incluyéndose, ya no sólo el riesgo básico que viene representado por las fluctuaciones de la siniestralidad, sino otros muchos factores como la rentabilidad de las reservas, la inflación, los ciclos económicos, el reparto de dividendos, etc... El entorno en el que se desarrolla la tesis es el enfoque que ofrece la teoría del riesgo, que se centra básicamente en la modelización de la cuantía total de los siniestros de una cartera de riesgo.Dentro de la teoría del riesgo se encuentran trabajos que plantean la introducción de políticas de dividendos en los modelos básicos que formalizan el comportamiento de las reservas en carteras de seguros no vida. La idea consiste en que la parte de las reservas consideradas excedentes se repartan en forma de dividendos. Formalmente, su introducción en el modelo, se realiza mediante la definición de barreras de dividendos que determinan las cuantías de reservas que como máximo la compañía de seguros ha decidido mantener.El estudio de los efectos de la modificación del modelo mediante la introducción de estrategias de reparto de dividendos se convierte en el punto de partida de la tesis. Así, los objetivos generales de la tesis se pueden agrupar básicamente en dos:· Analizar los efectos de la introducción de barreras de dividendos en la probabilidad de ruina.· Cuantificar los dividendos repartidos.Respecto al primer objetivo indicado, es evidente que la introducción de políticas de dividendos provoca una menor acumulación de reservas, y por tanto una mayor probabilidad de que las reservas sean insuficientes para cubrir la siniestralidad. Analizar cómo se verá afectada la solvencia de las carteras en función de la política de dividendos elegida será pues uno de los puntos a tratar a lo largo del trabajo.En lo relativo a la cuantificación de los dividendos repartidos, se puede considerar el papel de los dividendos como incentivo a los accionistas que han aportado el capital inicial, dividendos que pueden ser considerados, bien como rendimientos, bien como amortización a su inversión inicial. Se debería valorar, por tanto, si un mayor reparto de dividendos compensa el mayor riesgo de insolvencia, situación que puede interpretarse como una más rápida amortización de las aportaciones iniciales.De ahí surge la necesidad de cuantificar los dividendos repartidos, de analizar su influencia sobre la solvencia de la cartera y de determinar la política de dividendos considerada óptima desde el punto de vista de criterios económico-actuariales.La elección de la magnitud elegida para valorar los dividendos repartidos es un aspecto básico. Así, veremos a lo largo del trabajo como en la literatura actuarial se trabaja con la esperanza del valor actual de los dividendos repartidos, asumiendo que el proceso acaba en el momento de ruina o bien permitiéndose valores negativos de las reservas, y por tanto la recuperación del proceso.Una vez planteados los objetivos, surgió la necesidad de formalizar el modelo modificado con el reparto de dividendos. Así, en el Capítulo 2, se especifican las hipótesis a partir de las cuales se determina el reparto: se puede considerar que se repartirán dividendos siempre que el nivel de las reservas alcance el nivel de la barrera de dividendos (reparto continuo), o bien que el reparto sólo se producirá en momentos determinados del tiempo, suponiendo que las reservas sean mayores que la cuantía predeterminada por la barrera de dividendos (reparto discreto). Se recogen también los dos tipos de barreras definidas en la literatura actuarial: por un lado, las barreras reflectantes, que mantienen el nivel de las reservas en la barrera hasta la ocurrencia del siguiente siniestro, y por otro, las barreras absorbentes, definidas de tal forma que siempre que las reservas alcancen la barrera, se da por acabado el proceso.Una vez definidas las hipótesis de reparto y su formalización, otro de los temas interesantes fue el de analizar las barreras que aparecían definidas en la literatura actuarial para controlar el crecimiento ilimitado de las reservas. Así, encontramos trabajos sobre la barrera constante y la barrera lineal creciente.Nos centramos primero en el estudio de la barrera constante, realizado en los Capítulos 3 y 6. En el capítulo 3 se analiza suponiendo reparto continuo, y en el capítulo 6 se asume reparto discreto. Independientemente del reparto asumido, la característica básica es que, en el análisis en tiempo infinito, se producen valores de la probabilidad de ruina igual a uno. Se recoge la demostración asumiendo reparto continuo, y se presenta la demostración de que en el reparto discreto la ruina también es segura.En el análisis de la barrera constante, al ser la ruina cierta, centramos el estudio en la cuantificación de los dividendos repartidos. En la primera parte del capítulo 3 se presentan nuevas medidas que permiten aportar datos sobre la cuantía y el momento en que se empiezan a repartir dividendos, suponiendo que éstos sean positivos, mientras que en la segunda parte se realiza un estudio en el que se determina un óptimo económico del nivel de la barrera y el nivel inicial de las reservas. La idea que nos llevó a plantear este problema es que se puede considerar el nivel inicial de las reservas como una aportación de los accionistas. La comparación de esta cuantía con los dividendos que recibirán a cambio permite hallar combinaciones óptimas y obtener datos para analizar la rentabilidad obtenida por los accionistas.En el capítulo 6, en el que se analiza la barrera constante con reparto discreto, y tras buscar la bibliografía existente, hallamos que el cálculo de los dividendos repartidos se realizaba para unas distribuciones del coste total concretas. Así, nos planteamos un método de resolución válido para cualquier distribución discreta de la siniestralidad agregada. Optamos por el planteamiento de un sistema de ecuaciones lineal y su correspondiente generalización en la forma matricial que nos permitiese hallar la esperanza del valor actual de los dividendos, independientemente de la distribución del coste agregado.La otra barrera planteada hasta ahora, es la barrera lineal tratada en el Capítulo 4. Aquí la ruina ya no es segura, por lo que debemos plantearnos el cálculo de la probabilidad de ruina, tema tratado en la primera parte del capítulo.La segunda parte está dedicada a la valoración de las cuantías repartidas en forma de dividendos. De especial importancia en este capítulo es el uso de un planteamiento alternativo para el cálculo de la probabilidad de ruina y de los dividendos repartidos (Grandell (1991)), que nos permite la demostración analítica de las condiciones de contorno necesarias para la resolución de las ecuaciones en derivadas parciales obtenidas.En el capítulo 5 presentamos una nueva barrera de dividendos a la que denominamos barrera parabólica. La idea de introducir una nueva estrategia de reparto de dividendos surgió cuando, mediante simulación, pudimos comprobar que existen barreras alternativas equivalentes desde el punto de vista de la solvencia, pero que producen un reparto de dividendos diferente. Analizamos en este capítulo la probabilidad de ruina y los dividendos repartidos, incluyéndose comparaciones con la barrera lineal.En el capítulo 7 se presentan las conclusiones de la Tesis. En el capítulo 8 se incluyen los programas informáticos en Fortran y APL2 necesarios para el desarrollo de algunos apartados de la Tesis.Tesi
Análisis de soluciones para juegos cooperativos de valores medios crecientes respecto a un vector: juegos financieros(Universitat de Barcelona, 1996-04-17) Izquierdo Aznar, Josep Maria; Rafels, Carles; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[spa] El campo de estudio de la Teoría de Juegos se centra en los modelos matemáticos de conflicto y cooperación entre agentes decisores racionales. Las situaciones y problemas que analiza surgen de la interdependencia que tienen las decisiones de los agentes y de su repercusión sobre la utilidad de cada uno de ellos (repercusiones de tipo económico, de poder o, simplemente, de satisfacción). Este planteamiento hace que un objeto de estudio importante para la Teoría de Juegos sea la Economía y, en general, las Ciencias Sociales.Las decisiones y acciones llevadas a cabo por los agentes pueden tomarse de forma independiente, aunque tomando en cuenta la actuación de otros decisores, o en cooperación y de forma coordinada con ellos. Estos dos enfoques dan lugar a la división de la Teoría de Juegos en un parte dedicada a los juegos cooperativos y en otra dedicada a los juegos no cooperativos. En la presente Tesis nos ocuparemos de modelizar situaciones dentro del campo de la Teoría de Juegos cooperativos.Básicamente, un juego cooperativo analiza cuál es el fruto de la cooperación conjunta entre los agentes con la intención de encontrar un criterio que permita la distribución de las ganancias o beneficios obtenidos. En muchos de los modelos estudiados se observa o se asume que la cooperación siempre incrementa positivamente los resultados; sin embargo, la forma en cómo se incrementa es diferente según los problemas analizados.Una primera idea al respecto nos diría que la adhesión de nuevos miembros a una coalición de agentes nunca empeora el resultado obtenido por la coalición; en Teoría de juegos esta noción se expresa mediante el concepto de monotonía. Una segunda idea reforzaría la anterior e indicaría que romper una coalición de agentes ya formada resultaría ineficiente pues los grupos resultantes de la escisión saldrían perdiendo; esta condición nos conduce a lo que en Teoría de Juegos se denomina superaditividad. Una tercera vía aún más restrictiva respecto a la manera en que la cooperación es beneficiosa exigiría que el efecto positivo de la adhesión de un nuevo agente a una coalición fuera mayor cuanto mayor fuera el número de participantes en la coalición; en otras palabras, estaríamos hablando de la noción de convexidad. Las dos primeras condiciones (monotonía y superaditividad) son muy generales y se asumen en la mayoría de modelos. La convexidad, sin embargo, implica una regularidad en la aportación de los nuevos jugadores al juego: siempre resulta más productivo que un jugador se incorpore a una coalición con muchos jugadores que a una con pocos jugadores.Tesi
Comparación de curvas de tipos de interés. Efectos de la integración financiera(Universitat de Barcelona, 2005-12-12) Ruiz Dotras, Elisabet; Bolancé Losilla, Catalina; Fontanals Albiol, Hortènsia, 1956-; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[spa] La estimación de curvas de tipos de interés y su análisis a lo largo de la última década constituyen el núcleo central de esta tesis. Dentro de un proceso de integración económica y monetaria en el seno de la Unión Europea y en un mercado financiero cada vez más globalizado, la variable tipo de interés es especialmente relevante para manifestar ambos acontecimientos. La finalidad del trabajo es la contrastación empírica de la convergencia del tipo de interés y la velocidad con la que se ha producido la integración de los países de la Unión Monetaria Europea (UME), así como reflejar el proceso de globalización de los mercados financieros. Para ello se ha trabajado con un período temporal de trece años, desde 1992 hasta 2004, ambos inclusive y se ha analizado la evolución de seis países distintos, dentro y fuera de la UME, tanto en términos nominales como reales. En el estudio se incorporan cuatro países de la Unión Monetaria Europea (UME), España, Francia, Alemania e Italia. Se incluye también un país europeo Reino Unido, no integrado a la Unión Monetaria y finalmente, por su preponderancia en los mercados financieros internacionales, se incorpora también Estados Unidos.La base de datos, con aproximadamente 65 millones de observaciones, se elabora a partir de precios medios diarios de cotización en el mercado secundario de títulos de deuda pública y las características de dichos títulos. La frecuencia de estimación de las curvas es semanal.El modelo aplicado para obtener las curvas de tipos de interés corresponde al modelo propuesto por Nelson y Siegel (1987), dada su gran aceptación por parte de los Bancos Centrales. La extrema sensibilidad del modelo implica realizar un proceso de depuración de datos, previo a la estimación. El ajuste se realiza aplicando mínimos cuadrados generalizados y se minimiza el error en precio, ponderado por un factor inversamente proporcional a la duración. Los vectores de parámetros obtenidos permiten construir una serie temporal compuesta por 679 curvas de tipos de interés para cada país. En la dirección web http://guillen.eco.ub.es/~eruizd, puede consultarse los resultados obtenidos.Aunque se estudia la serie temporal del tipo de interés para distintos vencimientos (tipo de interés instantáneo, a tres meses, a un año, a cinco años, a diez años, a quince años y a plazo infinito), se desarrolla principalmente el tipo de interés instantáneo, representativo del corto plazo y próximo al precio oficial del dinero, y el tipo de interés a 15 años, como referente del largo plazo y como media del vencimiento de la deuda pública a largo plazo. A partir de las series temporales, se procede a la contrastación empírica de los resultados mediante un cálculo de distancias entre curvas para un determinado tipo de interés. Previamente es necesario establecer distintas etapas temporales que permitan realizar una comparativa de la posición de los países en cada período o etapa. Mediante una metodología no paramétrica, concretamente, la estimación núcleo de la regresión de Nadaraya-Watson, se ajusta la forma de la curva que define la tendencia de la serie de tipos de interés para distintos países. La comparación de estas funciones continuas permite calcular la distancia entre países en cada etapa. A través del análisis de coordenadas principales se proyecta la posición de los países en un gráfico de dos dimensiones. Los resultados del corto plazo manifiestan el proceso de integración de los países de la Unión Monetaria. Asimismo, los gráficos de posicionamiento de los países para el tipo a largo plazo revelan la convergencia de los mercados financieros.Finalmente, se concluye la tesis doctoral con un análisis similar al desarrollado pero en términos reales. La consideración de los tipos reales se lleva a cabo con la finalidad de contrastar si el proceso de convergencia en términos nominales es paralelo al proceso de convergencia en términos reales.Tesi
Métodos de análisis dinámico discreto. Aplicaciones financieras(Universitat de Barcelona, 2004-06-11) Fort Martínez, Juan Manuel; Alegre Escolano, Antonio; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[spa] En la tesis podemos distinguir dos partes bien difereEn la tesis podemos distinguir dos partes bien diferenciadas, la primera de investigación matemática sobre ecuaciones en diferencias, desarrollada en los capítulos II y III; la segunda parte corresponde a las aplicaciones financieras, capítulos IV y V.En el capítulo II , desarrollo un método nuevo de resolución de ecuaciones en diferencias lineales, que denomino del factor anti-diferencia del producto, y un segundo método mas novedoso si cabe, que lo denomino "Cambio de variable" que nos permite resolver ecuaciones en diferencias, cuando la diferencia es una variable discreta y no constante como es habitual.En el capítulo III, al aplicar las técnicas anteriores de resolución y contrastarlas con las ya existentes, nos permite obtener 11 sumatorios generales, y si consideramos sus casos particulares podemos pasar del centenar de sumatorios prácticos.En el capítulo IV, realizamos todos los cálculos de rentas financieras, ya sean constantes, lineales, geométricas, o de variación polinómica, con una sola fórmula inicial "F1S" obtenida del primer sumatorio del capítulo anterior.En el capítulo V, realizamos cálculos de planes especiales de ahorro, utilizando la misma fórmula "F1S", y realizando todas las simplificaciones oportunas, llegando al extremo de poder obtener unas tablas de planes de ahorro con todas sus cantidades enteras.En el capítulo VI, dada mi incapacidad para poder analizar todos los campos investigados, he dejado abiertos una serie de caminos, para que toda persona interesada pueda seguir investigando, pues queda mucho camino por recorrer.nciadas, la primera de investigación matemática sobre ecuaciones en diferencias, desarrollada en los capítulos II y III; la segunda parte corresponde a las aplicaciones financieras, capítulos IV y V. En el capítulo II , desarrollo un método nuevo de resolución de ecuaciones en diferencias lineales, que denomino del factor anti-diferencia del producto, y un segundo método mas novedoso si cabe, que lo denomino "Cambio de variable" que nos permite resolver ecuaciones en diferencias, cuando la diferencia es una variable discreta y no constante como es habitual. En el capítulo III, al aplicar las técnicas anteriores de resolución y contrastarlas con las ya existentes, nos permite obtener 11 sumatorios generales, y si consideramos sus casos particulares podemos pasar del centenar de sumatorios prácticos. En el capítulo IV, realizamos todos los cálculos de rentas financieras, ya sean constantes, lineales, geométricas, o de variación polinómica, con una sola fórmula inicial "F1S" obtenida del primer sumatorio del capítulo anterior. En el capítulo V, realizamos cálculos de planes especiales de ahorro, utilizando la misma fórmula "F1S", y realizando todas las simplificaciones oportunas, llegando al extremo de poder obtener unas tablas de planes de ahorro con todas sus cantidades enteras. En el capítulo VI, dada mi incapacidad para poder analizar todos los campos investigados, he dejado abiertos una serie de caminos, para que toda persona interesada pueda seguir investigando, pues queda mucho camino por recorrer.Tesi
Modelización y cobertura de operaciones actuariales en colectivos con múltiples estados(Universitat de Barcelona, 2000-05-12) Pociello García, Enrique; Alegre Gorri, Antonio; Sarrasí Vizcarra, Francisco Javier; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[spa] El trabajo que aquí presentamos se centra en la modelización de una operación actuarial en colectivos con múltiples estados sobre la cual planteamos la cobertura de las fluctuaciones aleatorias de la siniestralidad adversas. Por operación actuarial en colectivos con múltiples estados, entenderemos una operación de vida que contempla diferentes estados del asegurado (invalido, activo, empleado, desempleado, etc.). Normalmente, asociamos estas operaciones con prestaciones de invalidez o con otro tipo de prestaciones complementarias a las de vida. uno de los objetivos que nos fijamos, será plantear de forma general la modelización de las operaciones con múltiples estados. Con tal fin, describiremos un modelo general de múltiples estados, basado en la aplicación de procesos y semiprocesos estocásticos de markov que nos permita realizar un enfoque sistemático, general y matemáticamente riguroso de cualquiera operación con múltiples estados, definida de forma continua o discreta en el tiempo. Ampliaremos su estudio para el caso particular de una operación de invalidezVeremos que la aplicación de unas tablas de probabilidad ajustadas a las características del colectivo no es suficiente para garantizar su solvencia ya que ésta también dependerá de la estructura del colectivo. Para garantizar su solvencia, propondremos la aplicación del reaseguro de diferencia de siniestralidad. Esta modalidad de reaseguro cuya definición y aplicación desarrollaremos en el marco de una operación con múltiples estados permite cubrir las desviaciones adversas de siniestralidad debidas a la misma estructura del colectivo.La aplicación del reaseguro de diferencia de siniestralidad permitirà garantizar totalmente la solvencia del colectivo, considerando como única fuente de ingresos las primas pagadas por sus integrantes. En este contexto, entenderemos por solvencia, la capacidad de atender a las obligaciones presentes y futuras contraídas por el colectivo con sus propios miembros.Con la finalidad de diseñar una estrategia óptima, combinaremos la utilización del reaseguro de diferencia de siniestralidad con la aplicación del otro instrumento del que dispone el colectivo para asegurar su solvencia: recargo de seguridad, de forma que el valor actual actuarial del coste total (primas de reaseguro más las primas de la operación aseguradora recargadas) sea mínimo. El colectivo se encuentra sujeto por su propia dinámica a entradas de nuevos asegurados. Con tal objeto, analizaremos los efectos generados por éstas y su repercusión en el colectivo. Resultado de las diferentes propuestas que realicemos, formularemos diferentes variantes del reaseguro de diferencia de siniestralidad.Tesi
La gestión del riesgo de tipos de interés en el mercado de mutuo acuerdo: las operaciones "swaps" de tipos de interés(Universitat de Barcelona, 1990-12-05) Badía Batlle, Carmen; Sancho Insa, Trinidad; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[spa] El presente trabajo se inicia con una delimitación del marco histórico de los acontecimientos que han propiciado la aparición y el desarrollo de un conjunto de innovaciones financieras que se denominan "nuevos productos financieros". Las causas principales han sido las variaciones en los tipos de interés y de cambio.En una primera etapa, se estudia con cierta profundidad los riesgos asociados a esas variaciones, y la necesidad de una gestión de los mismos, destacamos la formalización del tipo de cambio "forward" para operaciones a corto y largo plazo, que dependen de los tipos de cambio al contado y de la estructura de los tipos de interés.Paralelamente, hemos sistematizado el subconjunto de los nuevos productos financieros formado por los que se utilizan para la gestión de los riesgos derivados de las variaciones en los tipos de cambio que dan lugar a intercambios de diferencias de tipos de interés, y que se negocian en los mercados de mutuo acuerdo por oposición a los mercados organizados. Estos nuevos productos son: Los "forward-forward", los FRAs, los "caps", los "floors" y los "collars" y los "swaps" de tipos de interés. De forma individualizada, hemos formalizado estas operaciones financieras, de acuerdo con lo siguiente: Los "forward-forward" y los FRAs: Las operaciones "forward-forward" se estudian por su carácter de precursoras de la operaciones FRAs, mediante un contrato FRA un prestatario se asegura un tipo de interés para un préstamo futuro cubriéndose, de esta forma, de posteriores subidas en los tipos de interés. Este tipo de interés se denomina tipo garantizado, siendo el elemento básico de la formalización obtenido a partir de la operación de cobertura que realiza la entidad garante. Con posterioridad al cálculo del tipo garantizado se realiza un estudio formal de las cuantías a intercambiar entre el comprador y el vendedor del FRA en función del valor del tipo de interés del mercado tornado como referencia. Se analiza también la rentabilidad de la operación tanto para el comprador como para el vendedor del FRA.Como paso previo a una formalización de las operaciones "swaps", nos hemos visto obligados a ordenar cronológicamente las primeras de ellas, para describir a continuación el mercado "swap" vigente en la actualidad. De este mercado hemos efectuada un análisis de las cifras globales de los últimos diez años, este desarrollo cronológico nos ha hecho ver la necesidad de describir, desde el punto de vista formal, las operaciones financieras antecesoras de los "swaps" de tipos de interés. Precisamente sobre estas operaciones se centra el objetivo fundamental de nuestro trabajo.Las operaciones precursoras de los "swaps" de tipos de interés son los préstamos paralelos, los "back-to-back "y los "swaps" de tipos de divisas. Los préstamos "back-to-back" surgen de los préstamos paralelos, y son dos préstamos, apareciendo corno tales en el balance de las entidades prestamista y prestataria. El problema fundamental surge cuando una de las entidades incumple sus obligaciones permaneciendo, la otra ligada a sus compromisos. Los "swaps" de divisas son formalmente idénticos y sólo se diferencian desde las ópticas legal y contable, puesto que no se trata ahora de dos préstanos, sino de un único contrato entre las dos partes que libera a una de ellas de sus obligaciones cuando la otra las incumple.La estructura de los "swaps" de divisas es la misma que la de los "swaps" de tipos de interés, pero en éstos el intercambio inicial y final de los principales no tiene sentido, ya que se encuentran nominados en la misma divisa; basta con intercambiar diferenciales de intereses periódicos.Analizaremos de aquí hasta el final los puntos más sobresalientes relacionados con los "swaps" de interés. Mediante una operación de este tipo, los usuarios se intercambian las cuotas de interés de sus respectivos préstamos y sólo en determinadas condiciones todos los participantes obtienen una disminución del coste de sus deudas.Para estudiar estos casos comparamos los costes de una deuda en el caso de contratar un "swap", con los costes de dicha deuda en caso de acceder directamente al mercado. A partir del estudio detallado de la operación, y de los signos de las diferencias entre los tipos fijos y los tipos variables a los que tienen acceso los participantes en la operación "swap", llegamos a la conclusión de que para que una operación "swap" sea conveniente a ambos participantes, la condición que en un principio se planteó como necesaria es también suficiente. Esta condición se enuncia de la forma: "Para que las dos entidades que participan en el "swap" obtengan beneficios, la entidad mejor situada debe encuadrarse en el mercado en el que su ventaja comparativa respecto a la otra es mayor".Si la condición necesaria y suficiente no se cumple, entonces alguna de las entidades pierde.Algunas de las aplicaciones que citamos se han estandarizado debido al hecho de que se utilizan con frecuencia y han tornado nombre propio, entre ellas podemos citar las siguientes: el "swap" de cupón cero, el "basis rate swap", el "swap" diferido.El modelo que proponemos para la valoración de las operaciones "swaps" permite calcular el precio de la prima que el comprador del "swap", pagador de tipo fijo, paga periódicamente junta con los diferenciales de tipo de interés. Comprar un "swap" de tipo de interés es equivalente a comprar un "cap" y vender un "floor", siendo el tipo de interés "cap" igual al tipo de interés "floor" e igual al tipo pactado en la operación "swap". La prima pagada por el comprador del "cap" y recibida por el vendedor del "floor", han sido calculadas anteriormente, nos bastará con igualar los tipos "cap", "floor", y "swap" para obtenerla. Junta con el problema de la valoración nos referimos a continuación a los distintos riesgos que asumen los participantes de estas operaciones, siendo los más significativos los riesgos debidos a las variaciones de los tipos de interés que pueden cubrirse mediante operaciones convenientes, y los riesgos de crédito o insolvencia debidos al incumplimiento de sus obligaciones por parte de algún usuario. Este tipo de riesgo no puede cubrirse, si bien puede ser valorada en un momento cualquiera del plazo de la operación, dependiendo del tipo de interés al que podría contratarse un nuevo "swap" que cubriera la posición abierta debido a dicho incumplimiento.Hemos terminado nuestro trabajo con un estudio del mercado secundario de las operaciones "swaps" de tipos de interés. Dentro de este estudio hemos enumerada las causas más frecuentes para la terminación de un "swap" de tipo de interés, así como las distintas formas existentes en dicho mercado para su anulación.Nuestro trabajo termina con una recopilación de la bibliografía utilizada, ordenada alfabéticamente.Tesi
Market Indices: Bases, Biases and Beyond(Universitat de Barcelona, 2009-07-23) Andreu Corbatón, Jordi; Alegre Escolano, Antonio; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[eng] Market Indices are perhaps one of the most well known concepts in finance. They have also a crucial role in the professional financial field: hundreds of institutional investors, pension funds or investment banks use, follow and create market indexes. Since 1880, indexes have spread over the world developing a huge industry. The Modern Portfolio Theory (MPT), the CAPM or the efficiency analysis contributed to this expansion, and theoretical and empirical studies concluded passive investments (or indexing) were winning strategies. Indexing grew exponentially supported by lower management costs, simplification of the manager selection, superior performance in average, and the EMH and CAPM fever. In the last 20 years indexed institutional assets have grown 40% annually. Having in mind the importance of indexing, it is really shocking not to find a complete and deep analysis of market indexes. No many books or articles about index construction are available. Regarding this reality, the main objective of this thesis was to contribute with a complete theoretical and empirical analysis of market indexes. A deep literature analysis is presented and completed with an empirical study in three articles. In the first article, a revision of financial fundamental pillars is provided. This revision is absolutely essential to understand theoretical and empirical bases of indexing and hypotheses underlying index construction. The analysis let us present five market index biases (the sample, the construction, the efficiency and the active bias, and finally, tracking error). The definition of these biases is fundamental to understand how indexes can be improved. In the second article, a deep Market Index analysis is presented. After an historical revision and a discussion about functions of an index and desirable characteristics, market index's biases are provided and studied. The author pays attention to how these biases are created and how the can be mitigated. Finally, in the last article, Minimum Risk Indices are generated for the Spanish, American and Argentinean Stock Markets. Minimum Risk Indices using VaR provide market indices with less risk and with higher profitability in some cases, due to the partial elimination of some market index biases, specially, the efficiency one.KEYWORDS: Market Indices, Biases, Passive Investment, Prtfolio Management, Minimun Risk Indices.Tesi
Further Investigations into the Anomalies of Rational Intertemporal Choice(Universitat de Barcelona, 2009-06-23) Loewe Durall, Germán; Rafels, Carles; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[spa] Cuando suena por primera vez el despertador, muchos de nosotros apretamos el botón de "posponer alarma" ("snooze", según la expresión inglesa, que significa echar una cabezadita). Esta decisión tiene detrás un razonamiento parecido al siguiente: "ahora mismo no soy capaz de levantarme, pero lo haré dentro de 5 minutos". En realidad, transcurrido este (corto) lapso de tiempo, el comportamiento más común es volver a apretar el botón otra vez. Y normalmente esta lucha con uno mismo puede durar 2 ó 3 asaltos más, hasta que llegamos a la hora máxima que nos podemos permitir. Ante este comportamiento la pregunta que, como economistas interesados en la toma de decisiones humanas, nos debemos hacer es la siguiente: ¿hay algo erróneo en este hábito? ¿Se trata acaso de un comportamiento irracional, anómalo? Y, en consecuencia, ¿debería una teoría normativa rechazarlo, excluirlo como posibilidad?La respuesta que da a este problema la teoría estándar de la elección intertemporal es sí, el comportamiento descrito es rechazable, es anómalo, esto es, no es propio de alguien enteramente racional, al menos tal como los economistas hemos entendido la racionalidad durante mucho tiempo. La irracionalidad consiste precisamente en el hecho de que supone una discrepancia con uno mismo, algo que nuestra intuición ética más elemental nos dice que es malo (aunque, dicho sea de paso, no sepamos muy bien por qué). Para ser racionales -diría la ortodoxia económica-, lo que deberíamos hacer es una de las dos siguientes cosas: o bien ser más realistas la noche anterior y programar la alarma para más tarde, quizás incluso para esa hora límite; o bien, ser consecuentes con la hora programada, y levantarnos a la primera. Resulta interesante comprobar que, en cualquiera de los dos casos, de lo que se trata es de salvaguardar la consistencia en la toma de decisiones de la persona: si preferías una cosa la noche anterior, no deberías pasar a preferir otra cosa distinta unas cuantas horas más tarde.Comentaré más adelante si esta respuesta que da la teoría económica está realmente justificada, porque ahora quiero detenerme a comentar la función que ha tenido esta "anomalía", este supuesto "error del comportamiento humano", en la evolución de la teoría estándar de la elección intertemporal. Es llamativo ver hasta qué punto esta teoría está fundamentada sobre el precepto que nos dice que deberíamos mantener estables nuestras preferencias, nuestras decisiones. Ciertos economistas de la primera mitad del siglo XX -como Samuelson o Debreu- revisaron la noción de utilidad del siglo anterior -debida a Bentham y otros-, y, apoyándose en los primeros análisis del impacto del tiempo en la toma de decisiones económicas -debidos a Rae, Jevons, Böhm-Bawerk y otros-, modelizaron matemáticamente el comportamiento económico intertemporal como la optimización de la suma ponderada de las utilidades de los diferentes periodos. Y, aunque para dicha modelización cabían en realidad múltiples soluciones, Paul Samuelson propuso en 1937 una concreción del modelo según la cual las utilidades de cada periodo se ponderarían conforme a un factor de descuento exponencial. Poco más tarde, Robert Strotz demostraría que el factor de descuento exponencial de Samuelson era en realidad el único que garantizaba la consistencia dinámica de las decisiones temporales, y, por lo tanto, el que debería adoptarse para un modelo normativo de elección intertemporal (que estuviera basado en la optimización de la suma de utilidades ponderadas). La ciencia económica creyó entonces haber encontrado no sólo un modelo verdadero en sentido normativo, sino también verdadero en el sentido positivo, ya que -se decía- las personas actúan en general en beneficio propio, y por lo tanto, lo harán aproximadamente siguiendo las recomendaciones del modelo normativo, ya que así se protegerán de los males de la inconsistencia dinámica.El blindaje ante la anomalía de la inconsistencia dinámica constituyó, por lo tanto, el fundamento de la teoría del descuento exponencial como teoría normativa estándar, y esta teoría, a su vez, se convirtió -en esta tesis explicaré cómo- también en la teoría positiva estándar de la elección intertemporal. Hoy sabemos que en esta secuencia de razonamientos hay numerosos fallos, ya que el comportamiento real de las personas difiere de múltiples maneras del que predice el modelo de Samuelson, y la literatura de referencia contiene numerosísimos artículos detectando otras 'anomalías', término con el que la disciplina designa comportamientos incompatibles con la teoría del descuento exponencial.Es claro, pues, que el andamiaje de este modelo de elección intertemporal racional se ha desplomado en los últimos años, y nuestra labor es reconstruirlo; o, mejor dicho, construir uno nuevo. La tesis que aquí se presenta pretende contribuir a esta tarea, y, para hacerlo, pretende investigar en mayor profundidad estas -mal llamadas- anomalías del comportamiento intertemporal racional. ¿Por qué investigar precisamente las anomalías de un modelo fallido? Porque comprender bien estas anomalías y los múltiples modelos alternativos a los que han dado lugar es la mejor manera de explorar el camino hacia un nuevo y mejorado modelo de elección intertemporal; considero que los "fallos" o "errores" en la teoría son el punto de partida más natural de un programa de investigación que pretenda contribuir a la tarea de comprender la toma de decisiones temporales. Además, el proyecto de alcanzar una mejor comprensión de la toma de decisiones temporales está estrechamente ligado al más ambicioso proyecto de comprender los determinantes del bienestar individual, algo que considero uno de los más urgentes asuntos que las ciencias sociales tienen pendientes de resolver. 'El bien del hombre debe ser la finalidad última de la ciencia política', como ya dejó establecido Aristóteles. Y, sin embargo, en ciencias sociales todavía no sabemos con precisión qué es el bien del hombre.Esta tesis está organizada de la siguiente manera. En el primer capítulo se presenta una revisión en profundidad de la teoría de la utilidad descontada en tanto que modelo estándar de elección intertemporal racional, y se presentan también todas las anomalías presentes en la literatura. El segundo capítulo aborda una cuestión de gran importancia, y sobre la cual no se conocían estudios empíricos hasta la fecha. La cuestión es la siguiente: desde la aparición del artículo de Thaler (1981), se acepta como demostrada la existencia de dos anomalías muy famosas claramente presentes en los experimentos de Thaler: el descuento excesivo y el descuento hiperbólico. Por si fuera poco, la aparición posterior de numerosos trabajos empíricos reproduciendo estas anomalías una y otra vez ha contribuido a reforzar esta convicción entre prácticamente todos los investigadores. Pues bien, la investigación que presento en el capítulo 2 pretende verificar la aparente robustez de estas anomalías, mediante una serie de experimentos que modifican el método de medición de las tasas de descuento temporal. Los experimentos se realizaron sobre una amplia muestra aproximadamente representativa de la población española, y presentaban una serie de decisiones intertemporales a los participantes mediante un cuestionario online. El capítulo 3º estudia por primera vez las preferencias sobre secuencias constantes. Hasta hoy se habían estudiado preferencias anómalas relativas a secuencias de pagos que eran crecientes o decrecientes, o que tenían alguna forma particularmente determinante para las preferencias, como por ejemplo las secuencias 'con final feliz' (esto es, en las que el mayor de los pagos está ubicado en última posición), pero todavía nadie había estudiado empíricamente las secuencias de pagos constantes (todos los pagos de igual importe) por sí mismas, como actor principal. Sin embargo, y tal como argumento en este capítulo, las secuencias constantes son un objeto de estudio excelente para contrastar modelos de elección intertemporal, por lo que considero que esta parte de la tesis es únicamente el inicio de lo que espero sea un proyecto de investigación de más alcance en un futuro próximo.La tesis termina con la presentación de una serie conclusiones y una reflexión final. De ésta se extraen las implicaciones últimas de los diferentes descubrimientos que presenta la tesis, tanto de cara a encontrar una nueva teoría positiva de la elección intertemporal, como también de cara a considerar incluso una nueva teoría normativa de la elección intertemporal.Tesi
La memòria als mercats financers: una anàlisi mitjançant xarxes neurals artificials(Universitat de Barcelona, 2005-06-07) Sorrosal Forradellas, María Teresa; Ramírez Sarrió, Dídac, 1946-; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial[cat] La memòria, dins del context financer, és un concepte ambigu que requereix la distinció entre diverses accepcions. La primera noció sorgeix en el marc economètric com a crítica de la hipòtesi d'independència entre observacions d'una variable en una sèrie temporal de naturalesa financera i es defineix com una relació funcional entre retards d'una mateixa variable. Nosaltres l'anomenem "memòria-dependència".De l'anàlisi tècnica obtenim una segona accepció a la que ens hi referim com "memòria-patró". La tercera hipòtesi postulada a la teoria de Dow és la de que els preus dels actius financers, i generalitzant els mercats financers, tenen memòria. En aquest sentit, s'interpreta com una repetició de les mateixes figures o patrons en l'evolució de les cotitzacions d'un actiu, conseqüència del manteniment d'unes mateixes pautes d'actuació per part dels inversors d'un mercat.La insuficiència d'aquestes dues nocions per recollir la totalitat de les influències del passat sobre el comportament dels mercats financers, duu a ampliar el marc teòric amb una tercera definició, la Memòria Col·lectiva. L'expressió prové de l'àmbit sociològic i destaca la naturalesa social dels records. L'entenem com el conjunt de coneixements, regles i patrons de comportament que són compartits pels membres d'un col·lectiu, un mercat financer per exemple, homogeneïtzant les representacions del passat per a obtenir avantatges en el futur. L'econometria ha desenvolupat models d'ajust a sèries temporals amb memòria-dependència, i l'anàlisi tècnica posseeix un instrumental per detectar la repetició de patrons gràfics. Cal, doncs, una metodologia per tractar de forma qualitativa, però també quantitativa, la memòria col·lectiva en el món financer. La nostra proposta són les xarxes neurals artificials. D'una banda, la seva estructura inspirada en el sistema neural biològic les fa adequades per a la modelització de la memòria. Per un altre costat, la seva flexibilitat i multifuncionalitat permet dissenyar xarxes específiques que s'adapten a gran quantitat d'entorns, circumstàncies i problemes. Així, les xarxes neurals artificials esdevenen una metodologia capaç de recollir els efectes de la memòria col·lectiva, però també poden aplicar-se per a la detecció i anàlisi de la memòria-dependència i memòria-patró, homogeneïtzant l'estudi de la influència del passat en un mercat financer i facilitant la comparació entre les diferents accepcions de memòria.En concret, hem aplicat les xarxes multiperceptró amb algorisme d'aprenentatge back-propagation a l'anàlisi de la memòria-dependència i la seva comparació amb la memòria col·lectiva en l'evolució de l´índex Dow Jones Industrial Average als mesos d'octubre. Hem optat per les xarxes ART (Adaptive Resonance Theory), per la seva capacitat en el reconeixement de patrons i adaptació a entorns oberts, com a instrument per al tractament de la memòria-patró, també en l'evolució del Dow Jones. Finalment, l'arquitectura dels mapes auto-organitzatius de Kohonen els fa adequats per l'anàlisi de la memòria col·lectiva, mitjançant l'ordenació espacial d'un conjunt de patrons en funció de la similitud entre llur característiques en un mapa bidimensional. La trajectòria dels patrons en el mapa informa de la seva evolució històrica i per tant, de l'aprenentatge, i la seva situació relativa permet la comparació entre ells. Hem aplicat els mapes de Kohonen a l'estudi de l'"efecte octubre" als mercats espanyol, francès i nord-americà, i al cas de l'"efecte eleccions generals" en l'evolució de les cotitzacions d'algunes accions de l'Ibex-35. Els resultats obtinguts són que no existeix efecte octubre ni des de la perspectiva de la memòria-dependència ni tampoc considerant la memòria col·lectiva; que sí és possible detectar patrons o climes mitjançant les xarxes ART; i que l''efecte eleccions generals' juntament amb l'aprenentatge dels inversors són fenòmens que es posen de relleu quan considerem la memòria col·lectiva en els mercats financers.