↧
`Federal´, un documental en buena hora
↧
Vamos a comprar mentiras
Vamos a comprar mentiras
Tapa blanda: 368 páginas
Editor: Calamo; Edición: 1 (22 de febrero de 2016)
ISBN-10: 8496932958 http://naukas.com/…/resena-vamos-a-comprar-mentiras-alime…/…
Con bisturí de cirujano y fina ironía, López Nicolás analiza con detalle la desvergüenza de algunas de las principales industrias alimentarias y cosmetológicas actuales. Es llamativo porque son empresas con enormes beneficios, con buenos laboratorios de I+D, con un cuidado exquisito por su imagen de marca y que, sin embargo, mienten, tergiversan, ocultan y engañan. A menudo con trucos de leguleyo, la letra pequeña, el asterisco, la media verdad que es una doble mentira. Jose Scientia, como muchos le conocemos, lo demuestra con una gran elegancia, fruto sin duda del rigor. Realmente a menudo lo que hace es tan solo contraponer lo que dice la empresa en su bote de yogur o de crema hidratante y lo que han dicho las principales agencias internacionales al respecto: la Agencia Europea del Medicamento, la FDA, los reglamentos de la Unión Europea, las asociaciones médicas y un largo etcétera. Así, por los capítulos de este libro van pasando las pastillas para adelgazar, los alimentos funcionales, las bebidas energéticas, los desodorantes, los dememoris, los nanoalimentos y muchos más. Todos son sometidos a esta mirada crítica, que no se deja embaucar por el envoltorio ni los mensajes publicitarios, y se centra en lo que los científicos tanto valoramos, los datos, las evidencias, los análisis independientes, que son expuestos de una manera sencilla y clara pero también rotunda y sin paños calientes.
La ciencia es una aventura fascinante, una de las pocas actividades humanas que tiene tres pies, uno en el pasado, otro en el presente y otro en el futuro. Es un ámbito abierto y generoso, pasional y competitivo. Y es la partida en la que se juega nuestro futuro. Sí, aunque a alguno le sorprenda, el futuro de nuestros hijos, de tu país, de la humanidad, no depende de las semifinales de la Champion.
La solución al paro, la mejora de nuestra competitividad económica, la posibilidad de alargar nuestra esperanza de vida, de detener el cambio climático o de luchar contra la desaparición de los insectos polinizadores no dependen de las alineaciones de Del Bosque, sino de si este país tiene un hueco para la ciencia en sus presupuestos, en el debate político, en sus medios de comunicación, en sus universidades, en sus librerías.
La ciencia es también el eje de nuestra sociedad moderna, desde internet a los trasplantes, desde las ondas gravitacionales a los teléfonos inteligentes. A veces los científicos sufrimos un cierto desánimo. Vivimos en un país democrático y avanzado donde, sin embargo, algunas personas se muestran totalmente analfabetas en ciencia hasta el extremo de no vacunar a sus hijos provocando que mueran de difteria. O donde supuestos profesionales sanitarios, aprovechándose del desconcierto reinante, despluman a los incautos vendiéndoles homeopatías y reikis varios. Por eso es importante la ciencia, por eso es necesario llevar los conocimientos científicos a toda la sociedad.
Afortunadamente, en los últimos años disfrutamos de una auténtica eclosión de autores, libros y editoriales dedicados a los libros de ciencia, la ciencia popular, la divulgación científica, la ciencia para todos, llámalo como quieras. Este es un género que puede llegar a combinar todas las virtudes de la buena literatura: amenidad, rigor, capacidad formativa, pensamiento crítico… Pienso que es otra cualidad de las culturas avanzadas, que la no ficción sea tan interesante y respetada como la ficción.
Con esta filosofía, ha nacido la colección El Arca de Darwin, de la editorial Cálamo, y fiel a estos principios publica ahora su segundo título, «Vamos a comprar mentiras. Alimentos y cosméticos desmontados por la ciencia», de José Manuel López Nicolás, conocido por muchos como Jose Scientia.
López Nicolás, químico, profesor universitario y divulgador científico, ha conseguido que su blog, Scientia, tenga miles de seguidores. Y esto no es casualidad. Es resultado de una escritura amena, sin jerga, que logra acercar sus amplísimos conocimientos y su curiosidad a cualquier lector. Es el fruto de elegir buenos temas, explicarlos bien y tratar al lector como un interlocutor inteligente que quiere aprender más
Ahora José Manuel ha trasladado todo esto a su primer libro, «Vamos a comprar mentiras. Alimentos y cosméticos desmontados por la ciencia», y creo que hay pocos primeros libros que sean tan insultantemente buenos como este. No nos debemos extrañar. Cada capítulo es un destilado de años de trabajo en su blog, contestando a los curiosos y trolls que allí le visitan, años de investigación en el laboratorio y en el supermercado, de dar clases y conferencias, siendo una voz que clama en un desierto cada vez más poblado, el de los que creemos en la ciencia como forma de discriminar si algo es falso o es verdad. Es un libro que se lee de un tirón pero que está muy pensado y muy trabajado.
Con bisturí de cirujano y fina ironía, López Nicolás analiza con detalle la desvergüenza de algunas de las principales industrias alimentarias y cosmetológicas actuales. Es llamativo porque son empresas con enormes beneficios, con buenos laboratorios de I+D, con un cuidado exquisito por su imagen de marca y que, sin embargo, mienten, tergiversan, ocultan y engañan. A menudo con trucos de leguleyo, la letra pequeña, el asterisco, la media verdad que es una doble mentira. Jose Scientia, como muchos le conocemos, lo demuestra con una gran elegancia, fruto sin duda del rigor. Realmente a menudo lo que hace es tan solo contraponer lo que dice la empresa en su bote de yogur o de crema hidratante y lo que han dicho las principales agencias internacionales al respecto: la Agencia Europea del Medicamento, la FDA, los reglamentos de la Unión Europea, las asociaciones médicas y un largo etcétera. Así, por los capítulos de este libro van pasando las pastillas para adelgazar, los alimentos funcionales, las bebidas energéticas, los desodorantes, los dememoris, los nanoalimentos y muchos más. Todos son sometidos a esta mirada crítica, que no se deja embaucar por el envoltorio ni los mensajes publicitarios, y se centra en lo que los científicos tanto valoramos, los datos, las evidencias, los análisis independientes, que son expuestos de una manera sencilla y clara pero también rotunda y sin paños calientes.
Esta es, quizá, la aportación más valiosa del libro. Más allá de desmontar falacias y engaños en los que casi todos hemos podido caer y contra los que quedamos advertidos, nos da argumentos sólidos con los que afrontar estos productos en el futuro, nos ayuda a ser más críticos, a estar más atentos. A desconfiar, sí, pero entendiendo por qué hay que hacerlo y exigiendo a estas empresas que nos traten con respeto si nos quieren tener de clientes.
También descubrimos lo que hay de verdad y de mentira en estos productos, pequeñas perlas de conocimiento que nos dan herramientas para una comprensión más rica de los avances que están por llegar y de aquello que consumimos y consumiremos. Es ese pie que ya se adentra en el futuro.
Valoro a López Nicolás tanto como divulgador como buen amigo y colega, pero ante la pregunta, ¿lo recomienda porque aprecia al autor o porque merece la pena? la respuesta es clara, lo recomiendo porque creo realmente que es uno de los mejores libros del 2016.
http://naukas.com/2016/03/31/resena-vamos-a-comprar-mentiras-alimentos-y-cosmeticos-desmontados-por-la-ciencia/#comments
↧
↧
Previsiones no acertadas, en 1980 se indico que sólo quedaba petróleo hasta el 2010.¿Milenarismo?
¿Se quedará el mundo sin petróleo? Un recurso agotable que no se agotará
versus
En las últimas décadas son muchos los economistas y expertos que se han hecho esta pregunta. Parece evidente que el petróleo es un bien finito, sin embargo no tiene por qué agotarse. Cada vez cobran más fuerza los argumentos que se pueden esgrimir para creer que el 'oro negro' nunca se acabará, porque los seres humanos usarán otras fuentes de energía antes de que se extraiga el último barril de petróleo.
Así lo dejan entrever los investigadores de CaixaBank en su último informe, en el que analizan con detalle el pasado, presente y futuro del petróleo. Estos economistas muestran el precio del petróleo en términos reales (descontando la inflación) desde 1970 hasta el día de hoy. El gráfico no muestra una tendencia clara, simplemente ciclos derivados de factores que poco tienen que ver con la cantidad de reservas probadas.
Cada vez que los precios se disparan por determinadas circunstancias, la industria petrolera incrementa su inversión en exploración y tecnología para encontrar nuevas formas de extraer petróleo de forma más eficiente. Gracias a la tecnología aplicada a esta industria se puede extraer el crudo de aguas ultra-profundas o mediante perforación hidráulica.
"Apenas se aprecia la tendencia alcista de muy largo plazo del precio real del petróleo que cabría esperar de su condición de recurso agotable". El precio de un bien agotable cuya demanda es creciente (además de ser un bien fundamental para una gran parte de la humanidad) debería seguir una tendencia alcista a medida que este bien se va acabando. Y es que cada barril que se consume de petróleo supone que estamos más cerca delpeak oil. Sin embargo la tendencia del precio no refleja este fenómeno.
Como explican los expertos de CaixaBank, "la realidad ha deparado descubrimientos continuos de nuevos yacimientos, hasta el punto de que, en contra de lo que se esperaba, las reservas probadas extraíbles no han dejado de crecer durante estas cuatro décadas (desde 1973). Primero, por el hallazgo de campos convencionales en nuevos enclaves (Rusia, Venezuela, Nigeria, etc.) y, después, gracias los logros en la extracción de depósitos no convencionales (aguas profundas, arenas bituminosas, shale oil, etc.)".
Las reservas probadas de petróleo
Los cálculos realizados en 1980 mostraban que sólo quedaba petróleo para 27 años. Sin embargo, 45 años después (en 2015), se puede decir que queda petróleo al menos para 57 años. El incremento de las reservas probadas (la tecnología permite hoy extraer crudo con unos costes que antes no eran asumibles) y la diversificación energética hacen prever que las reservas probadas de crudo puedan seguir creciendo.
De este modo, el Departamento de Macroeconomía de CaixaBank, sentencia que el petróleo no llegará a agotarse. El mayor compromiso de gobiernos y ciudadanos para con el medio ambiente, el incremento de las reservas probadas y el avance de la tecnología evitarán que la extinción del petróleo.
"En nuestra opinión, hoy por hoy sugiere que la dinámica de largo plazo del precio del petróleo no se alejará de la observada durante las últimas cuatro décadas: oscilaciones, previsiblemente tan fuertes o más que en el pasado, alrededor de un nivel estable en términos reales equivalente a unos 55 dólares actuales. De confirmarse, sería prolongar el comportamiento propio de un recurso agotable que no se agotará, validando la famosa cita del jeque Zaki Yamani, ministro saudí de Petróleo durante los convulsos años setenta y ochenta: 'La Edad de Piedra no acabó porque se agotarán las piedras'"., sentencia el análisis.
http://www.eleconomista.es/materias-primas/noticias/7455180/03/16/Se-acabara-el-petroleo-El-recurso-agotable-que-nunca-se-agotara.html
La economía española y el petróleo: una relación estrecha
http://www.caixabankresearch.com/-/la-economia-espanola-y-el-petroleo-una-relacion-estrecha-d4
Petróleo: ¿un recurso escaso barato?
El precio del petróleo es una variable clave para la economía mundial y por ello es fundamental entender cuáles son sus principales determinantes a medio plazo, así como su evolución tendencial a largo. A esta cuestión dedicamos el Dossier del Informe Mensual de este mes. Como sucede con otros productos que cumplen también una función de activo financiero, los economistas renunciamos a tratar de explicar los movimientos a muy corto plazo. Renuncia que es muestra de ignorancia, pero tal vez también de sabiduría.
A medio plazo, el precio del crudo sigue los denominados superciclos. Es decir, periodos de alza y descenso cuya duración global es de aproximadamente 10 o 15 años. En esencia, estos superciclos son el resultado de la diferencia que existe entre las respuestas a distintos horizontes temporales por parte de los agentes (productores y consumidores) ante un cambio inicial en el precio. A corto plazo, la reacción de ambos es moderada (esto es, oferta y demanda son relativamente inelásticas al precio), pero a medio plazo sí se modifican en profundidad los comportamientos de producción y consumo. Dicho de otro modo, los bajos precios pueden prolongarse por un tiempo, pero precisamente este fenómeno desata las fuerzas que provocan, al cabo de unos años, aumentos estructurales de demanda y descensos de la oferta, que acarrean alzas significativas del nivel de precios. En los últimos 45 años, hemos vivido dos fases de aumentos acusados del precio (1973-1980 y 2002-2011), dos fases de fuertes descensos (1980-1986 y 2011-2015) y una inusitada fase de estabilidad en niveles bajos (1986-2002). Este último periodo es testimonio del carácter oligopolístico del mercado internacional del crudo, un factor que también determina crucialmente su devenir. El superciclo se interrumpe si, en la fase de potencial escasez de producción, el cartel del petróleo pierde cohesión y esto impide que, ante la presión de la demanda, los productores respondan con limitaciones de oferta.
Desde la perspectiva del superciclo, el Dossier de este mes argumenta que nos encontramos probablemente en el tramo final de la caída de precios, que ha sido de aproximadamente un 75% desde máximos de 2011, una cifra similar a la de los años ochenta. Si la OPEP es capaz de restablecer cierto grado de disciplina interna bajo el liderazgo de Arabia Saudí, deberíamos registrar mayores niveles de precios en el futuro, recuperándose los 60 dólares a lo largo de los tres próximos ejercicios y superándose los 70 dentro de cinco.
Por lo que respecta al largo plazo, el análisis económico nos indica que deberíamos observar una tendencia al aumento del precio en términos reales, es decir, del precio relativo del petróleo en la economía. Un recurso agotable debiera encarecerse conforme se agotan sus existencias. En la práctica, el precio real del petróleo ha oscilado mucho a lo largo de las últimas décadas, como hemos dicho, pero curiosamente ha revertido hacia una media que se sitúa en aproximadamente 55 dólares (de poder adquisitivo actual). Cuatro décadas ya cualifican como largo plazo, pero las reservas de petróleo han resultado ser mayores de lo esperado y probablemente esto explica que la tendencia al alza del precio haya sido prácticamente inexistente en este pasado medio siglo.
Mirando al futuro, es probable que esa tendencia al alza tampoco acabe de manifestarse. No porque las reservas aún por descubrir sean gigantescas o porque se esperen grandes avances tecnológicos que permitan explotar las fuentes de petróleo de manera más eficiente. Lo que probablemente impedirá ese aumento del precio a largo plazo será el impacto ambiental del consumo de petróleo: si la humanidad desea cumplir sus objetivos de control de emisiones de CO2, una parte importante de las reservas aún no explotadas de combustibles fósiles serán, de hecho, inservibles. La competencia entre fuentes de energía está servida. Esto introduce un fuerte incentivo para que los países productores de petróleo intenten colocar a tiempo sus reservas en el mercado, renunciando a pactos monopolísticos prolongados que podrían no ser más que pan para hoy y hambre para pasado mañana.
Jordi Gual
Perspectivas del precio del petróleo
Nadie reivindica haber predicho, ni siquiera de lejos, el espectacular desplome del 75% que sufrió el precio del petróleo entre junio de 2014 y diciembre de 2015. El carácter absolutamente excepcional de la confluencia de fuerzas que se produjo en tan breve tiempo constituye una disculpa comprensible. Pero lo cierto es que esta variable ha tenido casi siempre la rebelde costumbre de frustrar los pronósticos de los expertos. Con estos precedentes, conviene tomar los ejercicios de prospectiva con cautela, a modo de referencias orientativas. En este sentido, y todavía con la tormenta activa, nuestra valoración apunta, con elevada convicción, hacia un precio a medio plazo (unos cinco años) claramente por encima del actual. La senda hasta entonces está plagada de incógnitas, aunque lo más probable es que la recuperación ya sea perceptible antes de acabar este año. Respecto al largo plazo, no parece haber motivos para que el precio promedio en términos reales se aleje mucho del nivel observado durante las últimas cuatro décadas.
El escenario de una subida significativa del precio del crudo a medio plazo se sustenta en factores tanto del lado de la demanda como de la oferta, que interaccionarán según un patrón similar al que ha venido deparando la experiencia histórica descrita en el artículo previo de este Dossier. En el lado de la demanda, la evolución económica de los países emergentes, con China al frente, va a ser el determinante clave. Se solapan aquí las dimensiones cíclica y estructural. Respecto a la primera, pensamos que la mayoría de economías emergentes conseguirán, no sin tropiezos, recuperar el pulso tras varios años de adversidades. Los problemas aparecieron por la suma de ciertos desequilibrios internos (déficit de cuenta corriente, inflación, etc.), las perturbaciones derivadas de las idas y venidas de los flujos de capital internacionales (a su vez provocadas por la política monetaria de la Reserva Federal y otros bancos centrales de los países desarrollados) y la transformación y desaceleración de la economía china (que está frenando su consumo de materias primas). Posiblemente, la primera parte de 2016 constituya el valle de este ciclo y, contra el pesimismo ahora reinante, la recuperación no tarde en empezar. La estabilización de la economía china, en el sentido de conseguir el deseado y saludable cambio de modelo sin descarrilar, es un requisito básico. Si, como esperamos, eso es lo que ocurre, las condiciones serán propicias para el despliegue de fuerzas estructurales, en la propia China y en otros importantes países emergentes, que conducirán a un notable aumento de la demanda de crudo.
En efecto, más allá de los inevitables ciclos, es evidente que, desde que se superó la crisis asiática de la segunda mitad de la década de 1990, tanto el desarrollo industrial como el progreso social (expansión de las clases medias) ganaron consistencia en los países emergentes, de modo que muchos ya están cerca o han sobrepasado los umbrales que aceleran la demanda de transporte. Años atrás, el petróleo bien merecía su apodo de «oro negro», ya que era realmente prohibitivo. Pero los países no desarrollados cada vez tienen una cuota mayor del PIB mundial, tanto si se mide en paridad de poder adquisitivo como en dólares corrientes. Este progreso conlleva un aumento muy significativo de las flotas de vehículos industriales y, especialmente, la llegada de muchas familias a los niveles de renta que permiten la compra de un automóvil. Por ejemplo, en 2015, las ventas de
vehículos privados en China alcanzaron los 15 millones (cerca de los 17 millones de EE. UU.). Dado que solo el 25% de las familias chinas dispone de automóvil (frente a un 95% en EE. UU.), todavía queda mucho recorrido por delante en ese país. Y a China le seguirán, en un futuro cercano, otros países como la India, Indonesia, Pakistán, Bangladés, Brasil o Turquía, que suman más de 2.000 millones de habitantes.
vehículos privados en China alcanzaron los 15 millones (cerca de los 17 millones de EE. UU.). Dado que solo el 25% de las familias chinas dispone de automóvil (frente a un 95% en EE. UU.), todavía queda mucho recorrido por delante en ese país. Y a China le seguirán, en un futuro cercano, otros países como la India, Indonesia, Pakistán, Bangladés, Brasil o Turquía, que suman más de 2.000 millones de habitantes.
En las economías desarrolladas, el principal motivo para esperar cierto aumento de la demanda de crudo a medio plazo es de otra índole: las condiciones actuales de petróleo barato tienden a propiciar y consolidar hábitos de consumo sesgados hacia las gasolinas, a la vez que desincentivan la inversión (privada y pública) en eficiencia energética y en el desarrollo de fuentes alternativas (por ejemplo, en el ámbito del coche eléctrico). Posiblemente la magnitud de este factor no sea muy importante, en tanto que el precio de las gasolinas ha descendido mucho menos que el del crudo debido a los impuestos fijos que recaen sobre las primeras. Donde la influencia de los actuales precios bajos del petróleo va a percibirse con claridad a medio plazo es en el lado de la oferta. Para deprimirla. Las cifras de 2015 ponen de manifiesto que ya se está produciendo un retroceso brusco de la inversión en exploración y producción por parte de las compañías petroleras internacionales. Y también cabe esperar un descenso de los recursos financieros y técnicos destinados a los programas de investigación y desarrollo, que constituyen la fuente última de las mejoras de productividad en los yacimientos. Esto va a ir en detrimento de la capacidad de extracción de los próximos años. De hecho, hay motivos para pensar que este fenómeno va a ser más intenso que en el pasado. Uno es que el declive (por motivos geológicos, del número diario de barriles que se extraen de un pozo a no ser que se lleven a cabo inversiones adicionales para ahondar en la perforación o potenciar el bombeo) se manifiesta en la actualidad con una tasa (o velocidad) superior a la del pasado. Esto es así para los campos convencionales (porque ya han ido perdiendo mucha presión), pero sobre todo para los pozos de shale oil (muchos de los cuales suelen perder cada año nada menos que la mitad de producción diaria). Un segundo motivo también afecta con especial gravedad al segmento del shale: el descenso del precio del crudo ha sido tan brusco e inesperado que muchas empresas están en serios apuros financieros. Para ellas, recortar la inversión es un mal menor si consiguen sobrevivir. Pero muchas, ahogadas por la deuda, están sucumbiendo, con el consiguiente menoscabo del capital físico, humano y tecnológico en el conjunto del sector. Estos problemas se manifiestan también en determinados países productores que sufren desequilibrios macroeconómicos graves (déficits público y de cuenta corriente), necesidades sociales acuciantes y riesgos crecientes de inestabilidad política. Los casos de Rusia, Venezuela, Nigeria o Angola se cuentan entre los más preocupantes. Sometidos a semejante tesitura, sus respectivos Gobiernos se ven tentados a recortar las inversiones en capacidad extractora e incluso en mantenimiento de las instalaciones, lo que limitará la oferta dentro de no mucho tiempo. De hecho, con el agravante de la miopía característica de estos países, están apurando a muy corto plazo las posibilidades de producción, lo que contribuye a hundir aún más el precio actual. Paralelamente, intentan conseguir cierto respiro presionando a Arabia Saudí y a Irán para que asuman el sacrificio de contener la producción. Esto nos lleva al tercer gran determinante a medio plazo: el régimen competitivo entre los productores.
El factor clave para que el descenso del precio del crudo, que había empezado en 2011 y transcurría de forma muy gradual, se precipitara en el verano de 2014 fue el cambio de actitud de Arabia Saudí. Gracias a sus enormes reservas y a un bajísimo coste de extracción, el país puede absorber mejor que nadie los shocks transitorios que se producen en el mercado de crudo (swing producer). Eso es lo que hizo durante 2012-2013, cuando la llegada del shale oil al mercado empezó a ser relevante, y con el primer golpe a las economías emergentes (después del anuncio de la Reserva Federal sobre la finalización del QE). En el verano de 2014, los saudíes cambiaron la táctica de mantener el precio en la zona de 100 dólares por la de defender su cuota en la producción global. Es muy posible que tomaran esa decisión tras llegar a la conclusión de que la revolución shale no es un fenómeno efímero o marginal y que la ralentización de China y la fase de ajuste en otros emergentes no iban a ser cosa de unos pocos meses. Con dicho cambio, Arabia Saudí consigue dos objetivos. En primer lugar, frena a un competidor como el shale de EE. UU., cuyos costes de extracción son elevados y superan ahora el precio del petróleo. En segundo lugar, complica los planes de Irán de aumentar su producción ante la expectativa, recientemente confirmada, de que se levantarían las sanciones internacionales que le impedían vender libremente en el mercado. Irán tiene potencial (también por sus privilegiados volúmenes de reservas y costes de producción) para disputar a Arabia Saudí el liderazgo de la OPEP. Y, además de las consideraciones económicas, debe recordarse que la Arabia suní sostiene una creciente rivalidad político-religiosa con el Irán chií. Los propósitos saudíes van camino de cumplirse pero todavía no están asegurados, de modo que esta estrategia agresiva puede prolongarse durante algún tiempo (dispone de un buen colchón de divisas extranjeras y un nivel bajo de deuda pública). No obstante, la lógica indica que, conforme los productores de costes elevados como elshale vayan siendo expulsados, a la vez que la recuperación de los países emergentes se materialice, previsiblemente Arabia Saudí maniobrará para facilitar y aprovechar un contexto de precios más altos que los de ahora.
En suma, el crecimiento de la demanda de los emergentes, el retroceso actual de las inversiones en capacidad y la suavización de la rivalidad entre los productores son los tres motivos para esperar un aumento del precio del crudo a medio plazo. Nuestra previsión es de 70-75 dólares en 2020, un aumento considerable que supondría volver claramente por encima de la media histórica en términos reales. Este tipo de sobrerreacción ya ha ocurrido en el pasado ante dinámicas análogas a la que presentamos, de hecho, para llegar a cotas por encima de 100 dólares que en esta ocasión no parece razonable esperar (requerirían grandes sorpresas en los factores mencionados, en particular, la expansión del parque automovilístico en los países emergentes).
La senda que podría seguir el precio hasta la referencia indicada es difícil de anticipar. Lo más probable es que sea un alza gradual desde la segunda mitad de este año, de la mano, en primer lugar, de la reactivación de la economía global, que se encuentra en una fase de desaceleración que también afecta a los países desarrollados. Los efectos de la subinversión y la expulsión del shale se empezarán a percibir en 2017 y serán poderosos desde 2018, lo cual propiciará un impulso adicional al precio. Pero la rivalidad Arabia Saudí-Irán y, a su alrededor, las decisiones del conjunto de la OPEP y de otros productores destacados como Rusia, constituyen una gran incógnita que tiene visos de generar, antes de reconducirse y en cualquier momento, fuertes dosis de volatilidad.
De hecho, la estrategia saudí (y de otros países de su órbita, como Kuwait o Qatar) también puede estar influida por un factor de largo plazo cuya relevancia, sin embargo, va agrandándose: las implicaciones del riesgo del cambio climático para el sector internacional de la energía. Como se ha expuesto en el artículo previo de este Dossier, no se descarta en absoluto la posibilidad de que gran parte de las reservas probadas de combustibles fósiles (petróleo, gas natural y carbón) queden para siempre bajo el suelo si, como cabe esperar, los Gobiernos y los agentes privados acaban haciendo suyo el objetivo de poner un tope absoluto a las emisiones de CO2 liberadas a la atmósfera. El establecimiento de impuestos y restricciones al carbono, así como el fomento de programas públicos y privados de investigación en fuentes alternativas y eficiencia, pueden hacerla realidad. Ciertamente, un reto de esta magnitud requeriría largo tiempo, pero Arabia Saudí es consciente de que tiene reservas de crudo algo superiores a 60 años de su volumen actual de producción y que, a nivel global, la cifra alcanza casi los 50 años (véanse los gráficos dos y tres). En función del mapa de escenarios (económicos, políticos, tecnológicos, etc.) que esté contemplando, cabe la posibilidad de que la maximización del valor presente de todas sus ventas futuras le aconseje no sacrificar cuota y tolerar, o incluso propiciar, un precio que elimine o debilite a los rivales. De hecho, desde un enfoque de muy largo plazo, la competencia incluye también el resto de fuentes, como el carbón (que emite mucho más CO2 pero es mucho más barato), el gas natural (que emite menos), la nuclear, la hidroeléctrica o las renovables. Las innovaciones tecnológicas desempeñarán un papel crucial en dicha competencia. En nuestra opinión, hoy por hoy sugieren que la dinámica de largo plazo del precio del petróleo no se alejará de la observada durante las últimas cuatro décadas: oscilaciones, previsiblemente tan fuertes o más que en el pasado, alrededor de un nivel estable en términos reales equivalente a unos 55 dólares actuales. De confirmarse, sería prolongar el comportamiento propio de un recurso agotable que no se agotará, validando la famosa cita del jeque Zaki Yamani, ministro saudí del Petróleo durante los convulsos años setenta y ochenta: «la Edad de Piedra no acabó porque se agotaran las piedras».
Departamento de Macroeconomía,
Área de Planificación Estratégica y Estudios, CaixaBank
http://www.caixabankresearch.com/-/perspectivas-del-precio-del-petroleo_d2
versus
Consecuencias del cénit del petróleo
Aunque el mundo todavía no ha llegado al cénit de todos los tipos de petróleo (sí del petróleo convencional), algunas consecuencias de la proximidad del pico ya las hemos sufrido desde hace algo más de una década. Aunque parte de estas consecuencias han sido atribuidas a la coyuntura económica internacional, muchos picoileros creemos que elpetróleo influye mucho en la economía mundial.
http://crashoil.blogspot.com.es/2016/03/consecuencias-del-cenit-del-petroleo.html
↧
Neoludismo.Jordi Gual Economista jefe 31 de enero de 2016
Neoludismo
Vivimos una era extraordinariamente contradictoria. El renqueante crecimiento de las economías desarrolladas tras la gran crisis financiera de 2008 y los muy bajos tipos de interés reinantes desde hace años son, para economistas influyentes como Larry Summers o Robert Gordon, consecuencia del estancamiento secular. Es decir, de una tendencia a que el crecimiento económico sea cada vez menor debido a que ya no existen oportunidades significativas de mejoras tecnológicas.
Al mismo tiempo, se está difundiendo la idea de que las nuevas tecnologías de la información y la comunicación impulsarán la robótica y la inteligencia artificial hacia cotas desconocidas hasta ahora. De tal manera, se argumenta, dicho progreso técnico hará redundantes muchos puestos de trabajo, lo que afectará a las cualificaciones intermedias, ya que los robots serán capaces de llevar a cabo tareas cada vez más complejas, y no meramente mecánicas y repetitivas. Para muchos, las consecuencias sociales de estos avances serían nefastas, puesto que aumentaría la polarización de la sociedad, al centrarse las mejoras en los puestos de trabajo y los salarios de las clases medias.
Sin embargo, este es un relato incoherente, e incluso falaz. Si los avances tecnológicos y el progreso técnico causan problemas de empleo no pueden conducirnos al mismo tiempo al estancamiento y al marasmo económico. Las mejoras tecnológicas, como el propio término «mejora» indica, amplían nuestras capacidades. Ensanchan el potencial productivo. Permiten hacer más con menos. O, en el lenguaje de los economistas, expanden la frontera de producción, permitiendo que unos mismos factores productivos generen un mayor producto, es decir, más renta y, en última instancia, más bienestar.
El Dossier de este Informe Mensual trata de arrojar algo de luz sobre este debate. Su tesis central merece resaltarse ante la creciente presencia de ideas neoluditas en los medios de comunicación y algunas corrientes de opinión. El progreso tecnológico es bueno para nuestras sociedades y es además, en definitiva, el único factor de crecimiento económico y de generación de bienestar social que es inagotable. Los recursos naturales son finitos, los rendimientos del capital físico son decrecientes, pero no así la capacidad del ser humano de generar y difundir nuevas ideas.
El auge reciente de la visión neoludita se explica fundamentalmente por razones políticas. En primer lugar, los avances tecnológicos no son neutros en términos del reparto de sus beneficios en la sociedad. Y menos aún en lo que se refiere a sus efectos adversos, como ya sucedió en el siglo XVIII en Inglaterra con la introducción de los telares mecánicos que provocaron el movimiento ludita, que se dedicaba a destruir la nueva maquinaria.
En segundo lugar, la diseminación por toda la economía de las oportunidades que genera el progreso técnico depende en gran medida de cómo esté organizada la sociedad. Es decir, de sus instituciones económicas y sociales, y de si son suficientemente flexibles y dinámicas para adaptarse a las nuevas circunstancias y facilitar la aparición de nuevas ocupaciones, empresas y sectores que acaben sustituyendo los puestos de trabajo y las fuentes de bienestar y riqueza erosionados por el cambio tecnológico. La rigidez o adaptabilidad de estas instituciones es una cuestión eminentemente política, reflejo a menudo de la tensión y los intereses contrapuestos entre diversos grupos sociales. Entre aquellos, normalmente los grupos ya establecidos, que, bien organizados, se resisten al cambio, y los grupos emergentes que podrían aprovecharlo, que tienen a su favor el empuje de las nuevas ideas y tecnologías, pero que a menudo apenas constituyen un grupo homogéneo con suficiente poder político para alterar el statu quo.
Es un gran reto de las sociedades democráticas avanzadas encauzar este gran debate social y combate político de tal modo que se consiga promover el cambio tecnológico y, al mismo tiempo, asegurar que sus beneficios lleguen a toda la sociedad.
Jordi Gual
Economista jefe
31 de enero de 2016
Automatización: el miedo del trabajador
En un mundo donde las máquinas no solo ejecutan órdenes y piensan, sino que empiezan a aprender, las posibilidades de automatización de los trabajos podrían ampliarse hasta límites inimaginables. Pero, si las máquinas desempeñan nuestro trabajo, ¿qué haremos nosotros? Este es el miedo de muchos trabajadores y de no pocos economistas. Sin embargo, lo que algunos entienden como una amenaza, otros lo perciben como una oportunidad. Un contraste de visiones que se repite cada vez que un cambio tecnológico sacude el statu quo de nuestra sociedad.
La automatización puede afectar al empleo a través de distintas vías. En general, aquellos que temen que las máquinas puedan reemplazarnos en el trabajo se basan en el llamado «efecto sustitución». Porque la automatización fue, es y será un claro sustituto de numerosos puestos de trabajo, lo que comporta la destrucción de empleo en ciertos sectores y ocupaciones. Así, a principios del siglo XX, algo más del 40% de la fuerza laboral estadounidense estaba empleada en el sector agrícola, lejos del 2% actual. Sin embargo, EE. UU. sigue siendo uno de los principales productores y exportadores de productos agrícolas en el mundo y su tasa de paro se sitúa en un muy bajo 5%.
A pesar de las similitudes que podemos encontrar entre la situación actual y lo ocurrido en el pasado, hay varios factores que sugieren que el ciclo que estamos viviendo es distinto. La explotación del big data y los avances en la tecnología visual y del reconocimiento del lenguaje pueden suponer una auténtica revolución en el desarrollo de la inteligencia artificial. Una Cuarta Revolución Industrial, como ya se empieza a denominar. Una máquina, en un futuro no muy lejano, podría ejercer de taxista o de radiólogo. Según un informe reciente de la consultora McKinsey, la actual revolución tendría la capacidad de sustituir el 45% de las tareas que realizan los trabajadores en la actualidad. Un porcentaje que, aun así, se acerca a la reducción del 40% al 2% en el sector agrícola estadounidense comentada más arriba (véase «¿Llegará la Cuarta Revolución Industrial a España?» en este mismo Dossier, para más detalles sobre los distintos estudios que tratan la cuestión y para un análisis elaborado del caso español).
Además del efecto sustitución, existe también el efecto complementariedad. Hay puestos de trabajo en los que la automatización complementa al trabajador. En estos casos, de hecho, las máquinas incrementan la productividad de los trabajadores, lo que repercute también en un aumento de su remuneración. Más allá de estos dos efectos (sustitución y complementariedad), lo que los críticos a la automatización suelen obviar es que la innovación tecnológica expande la frontera de producción: con los mismos recursos se puede producir más (crece el PIB o el tamaño del pastel, o renta, para repartir). De esta manera, el nivel de actividad económica aumenta claramente si los recursos que las nuevas tecnologías liberan se utilizan para realizar otras tareas y producir otros bienes y servicios (que pueden tener que ver o no con la tecnología desarrollada). Este es el análisis que efectúan economistas como David Autor, del Massachusetts Institute of Technology, y que atenúan los temores a la nueva era de máquinas inteligentes. Al fin y al cabo, dice en uno de sus artículos, «los dos últimos siglos de automatización y progreso tecnológico no han hecho obsoleto al trabajador».1 Es más, la Revolución Industrial (1760-1840) trajo consigo el crecimiento económico en mayúsculas.2
Aunque las virtudes a largo plazo de la Revolución Industrial son evidentes, a corto plazo no todo el mundo ganó con el cambio. Obviamente, los primeros perjudicados fueron el conjunto de trabajadores que perdieron el empleo sustituidos por las nuevas máquinas. Además, los trabajadores que no perdieron el empleo no vieron aumentar su salario real durante décadas, aunque su productividad mejorara sustancialmente (véase el gráfico que recoge el lento avance de los salarios entre 1800 y 1860).3 Por otro lado, tampoco aumentaron los salarios de los trabajadores con mayores conocimientos técnicos, a pesar de la ventaja que representaban tales conocimientos durante la época de la industrialización (el efecto wage skill premium, en su voz inglesa).4
Joel Mokyr, experto en historia económica de la universidad norteamericana de Northwestern, ofrece como una posible explicación a la falta de traslación de las mejoras de productividad en los salarios el papel de las instituciones.5Menciona, por ejemplo, tradiciones como la obligación de los campesinos de hacer uso del molino del señor o el propio sistema mercantilista como prácticas que permitían que unos pocos capturaran las rentas generadas mediante el progreso tecnológico. En este sentido, destaca cómo las reformas institucionales, que permitieron la desaparición de los monopolios y los privilegios que frenaban la competencia, proporcionaron el entorno adecuado para una mejor distribución de las rentas y para asegurar progresos tecnológicos sostenidos.
El descenso de la participación del factor trabajo en la renta (frente al factor capital) en la mayoría de países avanzados durante las últimas décadas se esgrime como prueba del impacto en el mercado de trabajo de los avances tecnológicos actuales, así como de la necesidad de cambios institucionales que frenen esta tendencia (véase el artículo «¿Cómo aprovechar el impacto positivo del cambio tecnológico en el empleo?» en este mismo Dossier, para saber más sobre las actuaciones institucionales que se proponen ante la revolución actual). Sin embargo, es importante comentar que no solo la tecnología puede haber provocado esta disminución. Entre otros elementos, destaca la globalización (con la entrada de trabajadores procedentes de los países pobres en el mercado laboral de los ricos a través del comercio y del offshoring) o la pérdida de poder de los sindicatos.6
El efecto de la automatización sobre la polarización de los salarios de los trabajadores, en cambio, sí parece ser un fenómeno sobre el cual existe mayor consenso entre los expertos. El hecho de que los nuevos robots sean capaces de sustituir a un perfil de profesionales con conocimientos intermedios y salarios medios podría ser un factor importante que explique el aumento de dicha polarización. Con todo, en este aspecto, elementos como la globalización entran de nuevo en escena causando el mismo tipo de dicotomía.
En suma, es complejo predecir los efectos que tendrán las máquinas del futuro sobre el trabajo tal y como lo entendemos hoy en día. Pero parece probable que, si los creamos, los C-3PO y los R2-D2 del mañana tengan como objetivo hacernos la vida más cómoda. Aun así, los ajustes en el proceso de mejora global pueden ser importantes para los trabajadores más directamente afectados por la competencia de las máquinas que puedan hacer su trabajo. Por este motivo, son necesarias unas instituciones que favorezcan el desarrollo tecnológico sin olvidarse de las personas que puedan resultar más perjudicadas a corto plazo.
Clàudia Canals
Departamento de Macroeconomía, Área de Planificación Estratégica y Estudios, CaixaBank
1. Véase Autor, D. H. (2015), «Why are there still so many jobs? The history and future of workplace automation». The Journal of Economic Perspectives 29, no. 3 (2015): 3-30.
2. A partir de la Revolución Industrial se produjeron avances significativos en el PIB per cápita, según estimaciones de Angus Maddison.
3. Véase Allen, R. C. (2009), «Engels' pause: Technical change, capital accumulation, and inequality in the british industrial revolution». Explorations in Economic History, 46(4), 418-435.
4. Véase Mokyr, J. (2005), «Long-term economic growth and the history of technology». Handbook of economic growth, 1, 1113-1180.
5. Íbid.
6. Véase CaixaBank Research (2014), «Las rentas del trabajo en perspectiva», Dossier del Informe Mensual de febrero de 2014.
↧
Horarios en España, desfasados e improductivos
↧
↧
La comuna paradisíaca de los abuelos
La comuna paradisíaca de los abuelos
Han decidido abordar la etapa final de su vida de un modo satisfactorio. No quieren languidecer pasivamente con una vejez melancólica, ser una carga para sus hijos o ingresar en una residencia de mayores al uso. Pretenden que el ocaso de sus días sea un periodo activo, nutritivo, jovial, de crecimiento humano y bienestar.
Por ello han fabricado su particular paraíso: Trabensol(Trabajadores en Solidaridad), una comunidad de individuos, con diferentes criterios e ideologías, que han invertido los ahorros de toda una vida en un proyecto que les permite convivir bajo una fórmula cooperativa única en nuestro país.
Todo comenzó hace 14 años cuando, un grupo de amigos a punto de jubilarse y con una intensa actividad social a sus espaldas, cayeron en la cuenta de que se estaban haciendo mayores.
«Queríamos alternativas diferentes a las que habían vivido nuestros padres. Tras muchas horas de diálogos y debates, decidimos constituir una cooperativa y levantar un centro de convivencia para mayores en el que pudiéramos vivir una vejez saludable, ser independientes, ayudarnos entre nosotros y organizarnos gracias a comisiones de trabajo que nos hicieran responsables del funcionamiento del colectivo», explica Paloma Rodríguez, presidenta de la cooperativa, que comparte habitación con su vecina de hace 40 años. «Nos quedamos viudas y decidimos emprender esta aventura juntas. Aquí estamos estupendamente. Es fantástico vivir bajos los lazos de la comprensión y el cariño».
Agotadora búsqueda
A partir de ahí comenzó una agotadora búsqueda para encontrar el terreno adecuado en el que realizar el proyecto. «Visitamos muchos lugares y, desgraciadamente, vivimos de cerca lo que se mueve en el negocio inmobiliario, fueron muchos los ayuntamientos que quisieron engañarnos. Finalmente apareció Carlos Rivera, alcalde de Torremocha del Jarama, que nos tendió la mano sin intereses ocultos, pagos ni intermediarios, afirmando que Trabensol iba a aportar al pueblo una riqueza enorme y un gran potencial mental y social», apunta José María García, ex secretario de consistorios.
Al pie de la sierra, en una vega llana y fértil, junto a la orilla del río, se erige el colorido complejo de 16.000 metros cuadrados, construido de forma bioclimática por filtración y geotermia, una energía limpia, renovable y económica, que les permite hasta un 75% de ahorro mensual.
«Está todo muy pensado. Las zonas de acceso de la casa están orientadas al norte y las del alojamiento al sur. Tenemos 25 pozos de 150 metros que hacen que el suelo sea radiante y tenga una temperatura constante de 16 grados. Los canalones de los tejados van a un aljibe que recoge el agua de la lluvia y nos permite regar durante tres meses. Los aislamientos térmicos y acústicos están muy cuidados y las luces exteriores están dirigidas hacia abajo para que no haya contaminación lumínica y podamos ver las estrellas», señala Jaime Moreno, periodista y coordinador de la comisión de comunicación del lugar.
Un hogar, no un geriátrico
Con la férrea intención de edificar un hogar alejado del concepto actual de las residencias de mayores, el complejo, exquisitamente decorado, está preparado para armonizar la cohabitación en común con la vida independiente. Circundando un huerto de 10.000 m2, tranquilos patios y aromáticos jardines, se encuentran las 54 viviendas de los afiliados, 50m2 repartidos entre una cocina americana, un salón, una habitación, un baño geriátrico y una terraza. «Mi anterior casa tenía el doble de metros, estaba harta de trabajar tanto en ella. Esta es muy apañada, cubre todas mis necesidades», afirma María Dolores Hernández, ex enfermera. Su amiga Luisa Llorena, ex dinamizadora social, dice:«Quería llegar aquí como una libélula, ligera de equipaje. Mi marido y yo hemos traído sólo los muebles que han cabido, ha sido un ejercicio de liberación de apegos del pasado. Ahora, nuestra vida cabe en 50 m2», sonríe.
El lugar cuenta con un amplio abanico de zonas comunes en las que disfrutar del momento: biblioteca, hemeroteca, gimnasio, un mini spa de baños terapéuticos, salas de reiki, de acupuntura, de música, de pintura o de edición de video, un claustro zen para pasear cuando hace mal tiempo, un habitáculo con juguetes para que los nietos gocen con los abuelos, salones de reunión para celebrar fiestas o el salón del silencio. «Aquí hay gente que es religiosa y hemos considerado que era necesario crear un espacio común y polivalente para meditar, rezar o practicar yoga. En Berlín van a hacer un centro donde diferentes religiones van a compartir techo, nosotros ya lo estamos haciendo», señala Jaime.
Mayores de alma joven
Como bien apunta Pepa Salamanca, ex auxiliar de clínica, «en Trabensol el mayor valor, sin duda, es el potencial humano». La convivencia entre los residentes, en su mayoría gente muy preparada, es plenamente activa y cada uno pone a disposición de la comunidad su experiencia profesional. «Vivimos en un clima de tolerancia y ayuda mutua», cuenta María Dolores. «Tenemos talleres de danzas del mundo, Ikebana, vidriado, costura, pintura, Chi Kung o bricolaje y hacemos nuestra propia gaceta informativa interna». Carmela Paz, ex administrativa del Instituto Cervantes asiente: «Es un lugar agradable para vivir. Conoces gente fantástica y haces cosas que te mantienen activa física y mentalmente. Además el entorno es fantástico, mientras que en Madrid te desplazabas a los barrios, aquí te desplazas a los pueblos». José María apostilla: «¡No paramos, cada día hay algo nuevo! Estamos en una adolescencia de la vejez. Mis hijas nos dicen que estamos haciendo la comuna que no pudimos en los 60», bromea.
En la comida todos colaboran en los quehaceres del inmenso comedor que tiene como chef a Mina Tartili, miembro de la asociación Ananda. «Trabajar aquí es gratificante. El ambiente es increíble, hacen todo lo posible por mantener un clima de alegría y solidaridad.Son mayores de alma joven, sabias y con una conciencia social que engancha».
¿Y si llegan momentos de dificultad física o de enfermedad? Jaime explica que están preparados para todo lo que venga. «Hay vigilancia las 24 horas. El complejo está habilitado para personas con movilidad reducida. En cada pasillo hay varios baños, por si hay urgencias, en cada esquina un ascensor con el tamaño suficiente para una silla de ruedas y tenemos un ala, especialmente habilitada, para personas que necesiten cuidados médicos específicos. Queremos pasar nuestros últimos días aquí de la mejor forma posible».
Un CoHousing español con lista de espera
Este sistema de vivienda colaborativa, diseñado y gobernado por los propios residentes, nació en Dinamarca, a finales de los años 60, y se extendió a Norte América, a finales de los 80, bajo la pretensión de volver al sentido de comunidad primigenio de los barrios de antaño. "Trabensol ha sorprendido mucho en Europa. Nosotros informamos, con toda libertad, a quienes nos preguntan sobre cómo hemos llegado hasta aquí, pero lo imprescindible es que haya un núcleo humano suficientemente fuerte y comprometido para poder llevar algo así a cabo.", explica Moreno. Son tantos los interesados en esta particular forma de vida que ya cuentan con una nutrida lista de espera. ¿Los requisitos? Tener entre 50 y 70 años, identificarse con los principios básicos de solidaridad y ayuda mutua, y tener solvencia económica para mantener los pagos: una inversión inicial de 154.000 y hasta 1100 al mes. "Incluye alojamiento, lavandería, limpieza y la comida del medio día. Somos de una generación en la que se compraban pisos porque no había casi alquileres. Los hemos vendido para poder afrontar el coste del proyecto. Tenemos una acción pero la propiedad es de la cooperativa. Quien decida marcharse recupera el dinero, al valor que tenga en ese momento, y morimos lo recuperan nuestros herederos, que también pueden, si cumplen los requisitos y quieren, venir a vivir aquí.
↧
La línea que separa el éxito del fracaso de un país.entrevista:James A. Robinson
"La renta básica es buena idea, es simplista pensar que la gente no trabajará"
El autor de uno de los libros de economía más importantes de la última década nos explica dónde se encuentra la línea que separa el éxito del fracaso de un país
↧
Dando la talla: Antropometría, crecimiento económico y desigualdad FRAN BELTRÁN el 30/03/2016
Uno de los objetivos principales de la historia económica consiste en indagar en la evolución histórica de los niveles de vida. Aunque lo más frecuente en este sentido es recabar información sobre producción per cápita o salarios, estos indicadores no tienen en cuenta los beneficios o costes del contexto en el que se vive o la producción y la distribución que tiene lugar fuera del mercado, limitaciones que son especialmente relevantes en el pasado. La historia antropométrica ha supuesto una gran contribución a estos temas ya que captura aspectos esenciales del bienestar humano (un resumen de la literatura aquí y aquí).
http://nadaesgratis.es/fran-beltran/dando-la-talla-antropometria-crecimiento-economico-y-desigualdad
Una parte muy importante de esta literatura se centra en la estatura. Aparte del componente genético, la talla adulta refleja lo que se conoce como nutrición neta durante la infancia y la adolescencia. La nutrición neta no sólo tiene en cuenta los aportes alimenticios, sino también lo que el cuerpo consume: tanto el trabajo físico como la lucha contra las enfermedades reduce la energía disponible. Cuando la nutrición neta es crónicamente inadecuada, la estatura se resiente porque el cuerpo da prioridad a la supervivencia frente al crecimiento. Entre 1870 y 1980, la estatura de los hombres en Europa occidental creció alrededor de 11 centímetros, un hecho sin precedente en el registro histórico (aquí o aquí). Este avance está claramente relacionado con el crecimiento económico que estas sociedades han experimentado, lo que les ha permitido mejorar su alimentación y, especialmente, su salud. Los avances médicos y las mejoras en salud e higiene pública han sido especialmente importantes, lo que resalta el papel del estado a la hora de mejorar las condiciones ambientales y reducir la incidencia de las enfermedades.
Pero una de las aportaciones más importantes de la historia antropométrica ha consistido en evidenciar que incrementos en la renta no siempre se trasladan en mejoras en la estatura. Los historiadores han explotado a conciencia los archivos de instituciones que medían regularmente a la gente, especialmente registros militares y de prisiones, y han amasado literalmente miles de observaciones individuales, contribuyendo de forma crucial a estos debates. Estas fuentes de datos están lejos desde luego de ser perfectas: no sólo el ejército solía imponer estaturas mínimas de acceso, sino que los reclutas son una muestra seleccionada de la población general (a no ser que el reclutamiento sea universal). A esto hay que añadir que estas muestran se limitan en su mayoría a hombres.
En una obra clave, Floud, Wachter and Gregory recopilaron los datos de más de cien mil reclutas británicos. Deborah Oxley y David Meredith han ajustado alguno de los problemas que tenía la serie original y han reconstruido la talla media británica entre 1733 y 1870. Estos resultados han aparecido recientemente en Past & Present y Deb Oxley me ha proporcionado amablemente sus datos para poder ilustrar esta entrada (recomiendo también ver el video de la magistral Tawney Lecture que impartió en 2013). El siguiente gráfico contrapone la evolución de la estatura con la de la renta per cápita: a pesar del fuerte crecimiento económico que la industrialización estaba generando, la estatura media se redujo significativamente entre 1815 y 1850. La talla sólo empezó a aumentar de forma sistemática a partir de 1860 conectando con el crecimiento sin precedentes que ocurrió desde entonces y que comentábamos arriba. Aunque aquí nos centramos en la experiencia británica, hay que decir que estudios para otros países encuentran resultados similares (aquí).
Fig. 1. Evolución de las estatura en Gran Bretaña, 1733-1870
La mejora de la renta no se reflejó en mejoras generales de bienestar porque otros factores actuaron en sentido contrario. En este sentido, hay que tener en cuenta el incremento de la desigualdad, el aumento de las horas de trabajo y cómo el crecimiento económico se trasladaba a los salarios reales. Asimismo, es muy importante considerar que las pésimas condiciones existentes en los centros urbanos e industriales se tomaron un peaje importante en términos de salud. Aunque el campo de los “pesimistas” ha acumulado bastante evidencia en este sentido, los “optimistas” alegan que inferencias obtenidas de muestras tan seleccionadas no serían validas.
Otra gran aportación de la historia antropométrica es en el terreno de la desigualdad. Las diferencias de clase se reflejan claramente en la talla: en el siglo XVIII, por ejemplo, la diferencia media de estatura a los 14 años entre los chicos pobres y los de clase alta que entraban en diversos cuerpos del ejército era de 22 centímetros! Junto a los datos militares anteriores, la siguiente figura incorpora las estaturas de miles de reclusos registrados en prisiones en Wandsworth (W) y Bedford (B), además de convictos transportados a Australia (A). Este gráfico no sólo evidencia la brecha en el nivel de vida entre distintas clases sociales, sino que confirma que el declive o estancamiento de la talla no fue una tendencia exclusiva propia de los datos militares.
Fig. 2. Evolución de la estatura en Gran Bretaña. Distintas muestras
Pero quizás el área donde la historia antropométrica está dando más frutos es en la medición de la desigualdad de género dentro del hogar. Por su propia naturaleza privada, es muy difícil saber lo que pasa dentro de las familias, especialmente en lo que respecta a la distribución de recursos y trabajo. Algunos autores se han aprovechado de este tipo de datos para ofrecer perspectivas muy clarificadoras de lo que podía estar ocurriendo. Aunque la población reclusa femenina era menos numerosa, Sara Horrell, David Meredith y Deb Oxley han amasado información no sólo de su estatura, sino también de su peso. Con estos datos han podido calcular el Índice de Masa Corporal (BMI en inglés) que es un indicador que, a diferencia de la estatura adulta, permite ver cómo evoluciona el estado nutricional neto a lo largo del ciclo vital (aquí y aquí).
El siguiente gráfico (sacado de sus publicaciones) compara los Índices medios de Masa Corporal para distintos grupos de edad de miles de reclusos y reclusas admitidos en el Correccional de Wandsworth (Surrey) entre 1858 y 1878. En él se observa que, aunque los volúmenes corporales de hombres y mujeres crecían de forma similar hasta alcanzar el inicio de la veintena, a partir de esa edad se abría una brecha creciente conforme las mujeres se casaban, empezaban a tener hijos y el tamaño de la familia aumentaba.
Fig 3. Índice de Masa Corporal. Reclusos de Wandsworth, 1858-1878
Fuente: Horrell et al. (2009, 110).
Los autores argumentan que estos datos indican que la distribución de los recursos dentro del hogar penalizaba claramente a las mujeres casadas y con hijos, lo que era un reflejo de su escaso poder de negociación en una sociedad en el que las oportunidades abiertas a estas mujeres eran escasas. A diferencia de los reclusos masculinos, muchas de estas mujeres de hecho ganaban peso en prisión (y no es que las raciones de las prisiones victorianas fueran muy generosas!). Esta visión del hogar concuerda muy bien con la evidencia que Jane Humphries ha obtenido analizando cientos de autobiografías de hombres y mujeres de la clase obrera durante este período (hace un mes presentó un magnífico resumen de sus trabajos recientes en las Ellen McArthur Lectures en Cambridge).
Aunque esto sólo es una muestra muy pequeña de todo el trabajo que se está haciendo, espero que esta entrada haya permitido ver que la historia antropométrica está jugando un papel muy importante en nuestro entendimiento de los niveles de vida en el pasado, y promete seguir haciéndolo en los próximos años.
↧
Aprendizaje profundo Fernandez-Villaverde
Aprendizaje profundo I
El martes pasado concluía en Seúl la quinta y final partida de go(wéiqí en Chino) entre Lee Sedol, quizás el jugador actual más competitivo, y AlphaGo, un programa desarrollado por Google DeepMind, una subsidiaria de Google especializada en inteligencia artificial. El resultado final, 4-1, fue una victoria rotunda de la maquina sobre el ser humano.Aunque mis habilidades con go, habiendo llegado al juego ya muy mayor, son prácticamente inexistentes, en mi familia hay varios jugadores apasionados del mismo que han dedicado, siguiendo una tradición milenaria en China, muchos años (algunos incluso décadas) al estudio de este arte (algo ahora facilitado por lasmuchas apps existentes para el iPad). Es natural, pues, que siguiésemos las cinco partidas con interés inusitado (incluyendo el parar en medio de Hyde Park en Londres para comprobar en el iPhone los últimos movimientos de cada jugador).En comparación con el ajedrez o las damas, y a pesar de tener unas reglas a primera vista muy sencillas, go es un juego que genera muchas más combinaciones posibles de movimientos. El numero total de partidas legales de go se calcula en torno a mientras que el numero de partidas legales en ajedrez es “solo” de y en damas de un casi trivial . Esta diferencia de 50/150 órdenes de magnitud implica que el enfoque de “fuerza bruta” (literalmente, comprobar muchísimas jugadas posibles y seleccionar aquellas que maximicen el valor de la posición de las piezas en el tablero después de varias rondas de movimientos) que está en el centro del los programas tradicionales de ajedrez o de damas resulte de menos utilidad en el juego asiático.
Como consecuencia principal, un programa competitivo de go al mayor nivel tiene que diseñarse con un enfoque alternativo basado en inteligencia artificial; es decir, ha de ser un programa que de alguna manera “entienda” cómo está jugando más que simplemente comprobar todas (o casi todas) las posibilidades existentes gracias a su potencia computacional y seleccionar la mejor entre ellas.[1] Incluso entre los seres humanos, la intuición, el estilo personal y la imitación de los grandes maestros del pasado tiene mucho más importancia en go que en ajedrez; lo cual también explica porque el pico de calidad de los jugadores profesionales en go a menudo llega muy pronto en su carrera y que se puedan escribir novelas como El Maestro de Go, deYasunari Kawabata.Y aunque muchos observadores conjeturaban que tal programa de go llegaría tarde o temprano, ha causado cierta sorpresa que haya sido en 2016. Elon Musk (el CEO de Tesla y un buen conocedor el mundo de la alta tecnología) ha citado un adelanto de diez años sobre las predicciones existentes. Tan recientemente como 2015, los mejores programas de go solo alcanzaban al nivel de un amateur sofisticado pero no podían competir con jugadores profesionales. AlphaGo, aplicando técnicas de aprendizaje profundo (en inglés, deep learning) se ha saltado esos 10 años y nos ha dejado a todos un pelín descolocados (aunque también ha habido voces escépticas sobre la generalidad de la contribución, como en este artículo de Gary Marcus).En mi caso personal, el interés por el encuentro entre Lee Sedol y AlphaGo se reforzaba por la observación de que llevo un año trabajando en la aplicación en economía de algoritmos de aprendizaje automático (en inglés, machine learning), que incluyen los algoritmos de aprendizaje profundo como un subconjunto importante de los mismos. Y dado que este miércoles tengo que hablar sobre aprendizaje automático en economía (lo siento, no es una charla pública y no tengo transparencias que pueda circular), escribir una serie de dos entradas en NeG sobre los mismos me sirve para pulir la introducción a la misma. Dada la extensión del material a cubrir, hoy hablaré sobre el aprendizaje automático más en general y la semana que viene sobre el aprendizaje profundo que esta detrás de AlphaGo.El aprendizaje automático es un conjunto de algoritmos diseñados para permitir que un código de ordenador aprenda sobre patrones en los datos. En vez de especificar una larga lista de atributos de los objetos a estudiar (como hacían los sistemas expertos antiguos), los algoritmos de aprendizaje automático comienzan con un simple modelo del mundo para clasificar observaciones y una serie de reglas para modificar tal modelo según el éxito del mismo. Dado que la mayoría de los ejemplos en los libros y en internet no son de economía y que los lectores de este blog podrán, llegados a este momento, estar preguntándose qué tiene todo esto que ver con nuestro campo de investigación, déjenme que les de un ejemplo. De hecho este ejemplo es el que empleo en mi propio trabajo.Imaginémonos que disponemos de una base de datos muy amplia de la estructura financiera de empresas, como Compustat. Esta base de datos nos suministra información sobre el capital, deuda, bonos, ventas, crecimiento, etc. de un amplio abanico de empresas a lo largo de varias décadas. La cantidad de información en la misma es tremenda. El procedimiento tradicional de los economistas para analizar empíricamente tal información se ha basado en dos líneas de ataque.Una primera línea de ataqueLa primera línea de ataque, a veces llamada de forma reducida, busca especificar regresiones entre distintas variables observadas basándose en una mezcla de intuición y ligera teoría. Por ejemplo, el investigador regresa el apalancamiento de la empresa contra su tasa de crecimiento o la industria en la que opera. La idea es que, por ejemplo, si una empresa crece deprisa es probable que quiera apalancarse para aprovechar las oportunidades y financiar tal crecimiento. Este bien citado trabajo de Murray Frank y Vidhan Goyal es un ejemplo representativo de esta estrategia empírica.Las desventajas de esta estrategia empírica son obvias. Solo por citar un problema entre muchos otros, uno nunca sabe hasta que punto los patrones documentados en los datos son espurios, producto quizás del azar, del prolongado esfuerzo del investigador de corroborar sus preconcepciones o del sesgo de publicación (es mucho más fácil publicar resultados positivos que negativos). Buena parte del esfuerzo de la econometría actual es buscar criterios de credibilidad basados en un análisis explícito de las fuentes de la identificación que permitan solventar estas dudas con un grado razonable de confianza.Pero incluso olvidándonos de estos problemas, nos queda siempre la inquietud de que, con bases de datos amplias, incluso el investigador más perspicaz puede perderse y no descubrir patrones empíricos interesantes. Cualquiera que haya corrido regresiones complejas y presentado las mismas en público ha sufrido la experiencia de ver como un miembro de la audiencia levanta la mano y le pregunta “¿has probado x?” y pensar para uno mismo: “¿cómo no se me ha ocurrido a mi tan obvia pregunta?” Con la llegada de bases de datos masivas (en inglés, big data) este problema de mero manejo de los datos se hace cada vez más agudo, en especial en aplicaciones industriales, donde se necesitan calcular millones de regresiones con miles de potenciales regresores de manera cotidiana.Un algoritmo de aprendizaje automático intenta explorar esta base de datos y buscar patrones empíricos robustos. En vez, por ejemplo, de probar todas y cada una de las especificaciones de regresión posibles (un problema de complejidad exponencial), podemos construir sencillos programas que encuentren relaciones en los datos y emplear las mismas para entender nuestra base de datos y predecir comportamientos futuros.En una entrada de este blog, no puedo más que arañar la superficie de estos algoritmos, pero el libro de texto más popular sobre el tema es este de Kevin P. Murphy. Es un manual amplio, detallado y fácil de seguir. De todas maneras, y solo por ser un poco más concreto, voy a explicar la idea básica detrás de una búsqueda voraz (greedy search en inglés), un algoritmo de aprendizaje automático muy extendido y sencillo de programar.Imaginemos que comenzamos construyendo una regresión
-regularizada del apalancamiento de una empresa contra un conjunto de variables observadas como su tasa de crecimiento, el sector en el que opera o las características de su gobernanza corporativa. La regularización nos permite penalizar aquellas especificaciones que sobre-ajustan los datos. Las variables observadas pueden ser seleccionadas aleatoriamente (si que queremos un algoritmo totalmente automático) o con unas suposiciones rápidas previas (en inglés, an educated guess). De hecho, podemos comenzar incluso con un conjunto vacío de regresores, lo que facilita la generalización del algoritmo a problemas donde tiene que ser implementado miles de veces.
Una vez estimada la primera regresión
-regularizada (o si estamos empleando un conjunto vacío, después de inicializar el programa), seleccionamos aleatoriamente una variable de las no incluidas entre los regresores para ser incluida en la segunda regresión y seleccionamos, de nuevo de manera aleatoria, una variable incluida en la primera regresión (excepto cuando comenzamos con el conjunto vacío) para ser eliminada. La selección aleatoria puede realizarse con una probabilidad positiva de no movimiento (es decir de no eliminar una variable ya existente o de no incluir una nueva variable), para que el número total de regresores sea, en si mismo, una variable aleatoria. Una vez realizado este remplazo, estimamos la nueva regresión y comprobamos una medida de ajuste a los datos. Medidas populares incluyen el nivel de la verosimilitud marginal o, en el caso de que tal verosimilitud marginal sea costosa de computar, la moda de la distribución a posteriori del modelo (este tipo de algoritmos se suelen anidar en algún tipo de Monte Carlo por Cadenas de Markov). El algoritmo puede continuar iterando en las regresiones regularizadas hasta que no se aprecien mejoras en el ajuste del modelo a los datos.
La experiencia de correr esta clase de algoritmos nos suele demostrar dos lecciones. Primero, que el ajuste va a “saltos”. En muchas iteraciones apenas avanzamos: el algoritmo parece estancado. Y, de repente, un pequeño cambio en el conjunto de regresores, trae consigo una mejora sustancial que es seguida en las siguientes iteraciones por otras mejoras importantes, antes de volverse de nuevo a estabilizar. Aquellos lectores con conocimientos de evolución reconocerán en este patrón un caso de equilibrios puntuados como los propuestos por Niles Eldredge y Stephen Jay Gould (no voy a discutir, pues no es mi campo si tales equilibrios puntuados existen o no en biología evolutiva; solo resalto que en optimización aleatoria tales equilibrios puntuados se ven todo el rato).Segundo, que el resultado final a veces es increíblemente contra-intuitivo: los regresores que importan para ajustar los datos no son los que uno hubiese pensado. No voy a entrar en la interpretación de si estos regresores tienen o no sentido económico o de si esto ayuda a “entender” el mundo. Lo que si que conozco con 100% certeza (y aquí estoy sujeto a “non-disclosure agreements” con fuerza legal, así que he de ser deliberadamente ambiguo) es que muchas empresas han descubierto que tales regresiones aleatorias les sirven para predecir francamente bien la cantidad de unidades de un bien que necesitan almacenar en sus diferentes centros de distribución incluso cuando la regresión parece no “tener sentido” alguno. Y muchos jugadores de go pensaron que algunos de los movimientos de AlphaGo eran totalmente contra-intuitivos en tiempo real y, sin embargo, al final del día tenían mucho sentido. En otras palabras, la búsqueda aleatorizada nos hace descubrir regiones de configuraciones de la regresión o de comportamiento que no habríamos explorado de otra manera.Una segunda línea de ataqueMencionaba anteriormente que frente a la técnica de formas reducidas, existía una segunda línea de ataque de los economistas a los problemas empíricos (y una línea en la que yo he trabajado mucho más): el enfoque estructural. Este enfoque plantea un modelo económico explícito y, en vez de estimar regresiones, estima los parámetros que indician tal modelo (por ejemplo, los parámetros estructurales de la función de utilidad, funciones de producción o conjuntos de información). No es este el momento de repasar los argumentos a favor o en contra de este segundo enfoque. Solo apuntar rápido que los algoritmos de aprendizaje automático también tienen un papel que jugar en esta clase de enfoques, en particular en la solución de problemas de optimización de alta dimensionalidad en el corazón de los mismos (esto es, en concreto, el problema en el que estoy trabajando ahora mismo; bueno, en cuanto acabe de colgar esta entrada).A modo de conclusión rápidaNo soy, ni muchísimo menos, el primer economista en trabajar en estos temas. Susan Athey lleva años trabajando en cosas similares (aunque desde un enfoque distinto del mío). Aquí, por ejemplo, Athey discute varias de las ideas del campo y aquí, con Guido Imbens, dando unas clases magistrales sobre el tema.En el otoño tengo programadas unas clases sobre aprendizaje automático. Si tengo tiempo de preparar unas transparencias con las que esté contento y
AlphaGo Skynet no nos ha convertido en sus esclavos, las colgaré en internet y las anunciaré aquí en NeG. Mientras tanto y en espera de la segunda entrada de esta serie el martes que viene, como dice una máquina de aprendizaje automático: “hasta la vista, baby!”1. Los programas de ajedrez o de damas no son particularmente intrigantes desde el punto de vista de inteligencia artificial: aunque incorporan ideas interesantes de como evaluar posiciones en el tablero o de como simplificar la búsqueda de movimientos eliminando ramas del árbol de decisión de manera temprana, como reitero en el texto principal, al final del día se centran en la aplicación de fuerza bruta computacional. La victoria de DeepBlue sobre Kasparov en 1997, mientras que prueba significativa del avance en la velocidad de procesamiento, no era un cambio cualitativa en la capacidad de los ordenadores de descubrir estrategias de comportamiento óptimo. De igual manera que un ordenador puede calcular muchísimo más rápido que cualquier humano, un ordenador moderno puede evaluar muchos más movimientos de ajedrez, pero en cierto sentido no hay “mayor secreto” en ello.{ 19 comentarios… léelos a continuación añade uno }
El martes pasado concluía en Seúl la quinta y final partida de go(wéiqí en Chino) entre Lee Sedol, quizás el jugador actual más competitivo, y AlphaGo, un programa desarrollado por Google DeepMind, una subsidiaria de Google especializada en inteligencia artificial. El resultado final, 4-1, fue una victoria rotunda de la maquina sobre el ser humano.
Aunque mis habilidades con go, habiendo llegado al juego ya muy mayor, son prácticamente inexistentes, en mi familia hay varios jugadores apasionados del mismo que han dedicado, siguiendo una tradición milenaria en China, muchos años (algunos incluso décadas) al estudio de este arte (algo ahora facilitado por lasmuchas apps existentes para el iPad). Es natural, pues, que siguiésemos las cinco partidas con interés inusitado (incluyendo el parar en medio de Hyde Park en Londres para comprobar en el iPhone los últimos movimientos de cada jugador).
En comparación con el ajedrez o las damas, y a pesar de tener unas reglas a primera vista muy sencillas, go es un juego que genera muchas más combinaciones posibles de movimientos. El numero total de partidas legales de go se calcula en torno a mientras que el numero de partidas legales en ajedrez es “solo” de y en damas de un casi trivial . Esta diferencia de 50/150 órdenes de magnitud implica que el enfoque de “fuerza bruta” (literalmente, comprobar muchísimas jugadas posibles y seleccionar aquellas que maximicen el valor de la posición de las piezas en el tablero después de varias rondas de movimientos) que está en el centro del los programas tradicionales de ajedrez o de damas resulte de menos utilidad en el juego asiático.
Como consecuencia principal, un programa competitivo de go al mayor nivel tiene que diseñarse con un enfoque alternativo basado en inteligencia artificial; es decir, ha de ser un programa que de alguna manera “entienda” cómo está jugando más que simplemente comprobar todas (o casi todas) las posibilidades existentes gracias a su potencia computacional y seleccionar la mejor entre ellas.[1] Incluso entre los seres humanos, la intuición, el estilo personal y la imitación de los grandes maestros del pasado tiene mucho más importancia en go que en ajedrez; lo cual también explica porque el pico de calidad de los jugadores profesionales en go a menudo llega muy pronto en su carrera y que se puedan escribir novelas como El Maestro de Go, deYasunari Kawabata.
Y aunque muchos observadores conjeturaban que tal programa de go llegaría tarde o temprano, ha causado cierta sorpresa que haya sido en 2016. Elon Musk (el CEO de Tesla y un buen conocedor el mundo de la alta tecnología) ha citado un adelanto de diez años sobre las predicciones existentes. Tan recientemente como 2015, los mejores programas de go solo alcanzaban al nivel de un amateur sofisticado pero no podían competir con jugadores profesionales. AlphaGo, aplicando técnicas de aprendizaje profundo (en inglés, deep learning) se ha saltado esos 10 años y nos ha dejado a todos un pelín descolocados (aunque también ha habido voces escépticas sobre la generalidad de la contribución, como en este artículo de Gary Marcus).
En mi caso personal, el interés por el encuentro entre Lee Sedol y AlphaGo se reforzaba por la observación de que llevo un año trabajando en la aplicación en economía de algoritmos de aprendizaje automático (en inglés, machine learning), que incluyen los algoritmos de aprendizaje profundo como un subconjunto importante de los mismos. Y dado que este miércoles tengo que hablar sobre aprendizaje automático en economía (lo siento, no es una charla pública y no tengo transparencias que pueda circular), escribir una serie de dos entradas en NeG sobre los mismos me sirve para pulir la introducción a la misma. Dada la extensión del material a cubrir, hoy hablaré sobre el aprendizaje automático más en general y la semana que viene sobre el aprendizaje profundo que esta detrás de AlphaGo.
El aprendizaje automático es un conjunto de algoritmos diseñados para permitir que un código de ordenador aprenda sobre patrones en los datos. En vez de especificar una larga lista de atributos de los objetos a estudiar (como hacían los sistemas expertos antiguos), los algoritmos de aprendizaje automático comienzan con un simple modelo del mundo para clasificar observaciones y una serie de reglas para modificar tal modelo según el éxito del mismo. Dado que la mayoría de los ejemplos en los libros y en internet no son de economía y que los lectores de este blog podrán, llegados a este momento, estar preguntándose qué tiene todo esto que ver con nuestro campo de investigación, déjenme que les de un ejemplo. De hecho este ejemplo es el que empleo en mi propio trabajo.
Imaginémonos que disponemos de una base de datos muy amplia de la estructura financiera de empresas, como Compustat. Esta base de datos nos suministra información sobre el capital, deuda, bonos, ventas, crecimiento, etc. de un amplio abanico de empresas a lo largo de varias décadas. La cantidad de información en la misma es tremenda. El procedimiento tradicional de los economistas para analizar empíricamente tal información se ha basado en dos líneas de ataque.
Una primera línea de ataque
La primera línea de ataque, a veces llamada de forma reducida, busca especificar regresiones entre distintas variables observadas basándose en una mezcla de intuición y ligera teoría. Por ejemplo, el investigador regresa el apalancamiento de la empresa contra su tasa de crecimiento o la industria en la que opera. La idea es que, por ejemplo, si una empresa crece deprisa es probable que quiera apalancarse para aprovechar las oportunidades y financiar tal crecimiento. Este bien citado trabajo de Murray Frank y Vidhan Goyal es un ejemplo representativo de esta estrategia empírica.
Las desventajas de esta estrategia empírica son obvias. Solo por citar un problema entre muchos otros, uno nunca sabe hasta que punto los patrones documentados en los datos son espurios, producto quizás del azar, del prolongado esfuerzo del investigador de corroborar sus preconcepciones o del sesgo de publicación (es mucho más fácil publicar resultados positivos que negativos). Buena parte del esfuerzo de la econometría actual es buscar criterios de credibilidad basados en un análisis explícito de las fuentes de la identificación que permitan solventar estas dudas con un grado razonable de confianza.
Pero incluso olvidándonos de estos problemas, nos queda siempre la inquietud de que, con bases de datos amplias, incluso el investigador más perspicaz puede perderse y no descubrir patrones empíricos interesantes. Cualquiera que haya corrido regresiones complejas y presentado las mismas en público ha sufrido la experiencia de ver como un miembro de la audiencia levanta la mano y le pregunta “¿has probado x?” y pensar para uno mismo: “¿cómo no se me ha ocurrido a mi tan obvia pregunta?” Con la llegada de bases de datos masivas (en inglés, big data) este problema de mero manejo de los datos se hace cada vez más agudo, en especial en aplicaciones industriales, donde se necesitan calcular millones de regresiones con miles de potenciales regresores de manera cotidiana.
Un algoritmo de aprendizaje automático intenta explorar esta base de datos y buscar patrones empíricos robustos. En vez, por ejemplo, de probar todas y cada una de las especificaciones de regresión posibles (un problema de complejidad exponencial), podemos construir sencillos programas que encuentren relaciones en los datos y emplear las mismas para entender nuestra base de datos y predecir comportamientos futuros.
En una entrada de este blog, no puedo más que arañar la superficie de estos algoritmos, pero el libro de texto más popular sobre el tema es este de Kevin P. Murphy. Es un manual amplio, detallado y fácil de seguir. De todas maneras, y solo por ser un poco más concreto, voy a explicar la idea básica detrás de una búsqueda voraz (greedy search en inglés), un algoritmo de aprendizaje automático muy extendido y sencillo de programar.
Imaginemos que comenzamos construyendo una regresión
-regularizada del apalancamiento de una empresa contra un conjunto de variables observadas como su tasa de crecimiento, el sector en el que opera o las características de su gobernanza corporativa. La regularización nos permite penalizar aquellas especificaciones que sobre-ajustan los datos. Las variables observadas pueden ser seleccionadas aleatoriamente (si que queremos un algoritmo totalmente automático) o con unas suposiciones rápidas previas (en inglés, an educated guess). De hecho, podemos comenzar incluso con un conjunto vacío de regresores, lo que facilita la generalización del algoritmo a problemas donde tiene que ser implementado miles de veces.
Una vez estimada la primera regresión
-regularizada (o si estamos empleando un conjunto vacío, después de inicializar el programa), seleccionamos aleatoriamente una variable de las no incluidas entre los regresores para ser incluida en la segunda regresión y seleccionamos, de nuevo de manera aleatoria, una variable incluida en la primera regresión (excepto cuando comenzamos con el conjunto vacío) para ser eliminada. La selección aleatoria puede realizarse con una probabilidad positiva de no movimiento (es decir de no eliminar una variable ya existente o de no incluir una nueva variable), para que el número total de regresores sea, en si mismo, una variable aleatoria. Una vez realizado este remplazo, estimamos la nueva regresión y comprobamos una medida de ajuste a los datos. Medidas populares incluyen el nivel de la verosimilitud marginal o, en el caso de que tal verosimilitud marginal sea costosa de computar, la moda de la distribución a posteriori del modelo (este tipo de algoritmos se suelen anidar en algún tipo de Monte Carlo por Cadenas de Markov). El algoritmo puede continuar iterando en las regresiones regularizadas hasta que no se aprecien mejoras en el ajuste del modelo a los datos.
La experiencia de correr esta clase de algoritmos nos suele demostrar dos lecciones. Primero, que el ajuste va a “saltos”. En muchas iteraciones apenas avanzamos: el algoritmo parece estancado. Y, de repente, un pequeño cambio en el conjunto de regresores, trae consigo una mejora sustancial que es seguida en las siguientes iteraciones por otras mejoras importantes, antes de volverse de nuevo a estabilizar. Aquellos lectores con conocimientos de evolución reconocerán en este patrón un caso de equilibrios puntuados como los propuestos por Niles Eldredge y Stephen Jay Gould (no voy a discutir, pues no es mi campo si tales equilibrios puntuados existen o no en biología evolutiva; solo resalto que en optimización aleatoria tales equilibrios puntuados se ven todo el rato).
Segundo, que el resultado final a veces es increíblemente contra-intuitivo: los regresores que importan para ajustar los datos no son los que uno hubiese pensado. No voy a entrar en la interpretación de si estos regresores tienen o no sentido económico o de si esto ayuda a “entender” el mundo. Lo que si que conozco con 100% certeza (y aquí estoy sujeto a “non-disclosure agreements” con fuerza legal, así que he de ser deliberadamente ambiguo) es que muchas empresas han descubierto que tales regresiones aleatorias les sirven para predecir francamente bien la cantidad de unidades de un bien que necesitan almacenar en sus diferentes centros de distribución incluso cuando la regresión parece no “tener sentido” alguno. Y muchos jugadores de go pensaron que algunos de los movimientos de AlphaGo eran totalmente contra-intuitivos en tiempo real y, sin embargo, al final del día tenían mucho sentido. En otras palabras, la búsqueda aleatorizada nos hace descubrir regiones de configuraciones de la regresión o de comportamiento que no habríamos explorado de otra manera.
Una segunda línea de ataque
Mencionaba anteriormente que frente a la técnica de formas reducidas, existía una segunda línea de ataque de los economistas a los problemas empíricos (y una línea en la que yo he trabajado mucho más): el enfoque estructural. Este enfoque plantea un modelo económico explícito y, en vez de estimar regresiones, estima los parámetros que indician tal modelo (por ejemplo, los parámetros estructurales de la función de utilidad, funciones de producción o conjuntos de información). No es este el momento de repasar los argumentos a favor o en contra de este segundo enfoque. Solo apuntar rápido que los algoritmos de aprendizaje automático también tienen un papel que jugar en esta clase de enfoques, en particular en la solución de problemas de optimización de alta dimensionalidad en el corazón de los mismos (esto es, en concreto, el problema en el que estoy trabajando ahora mismo; bueno, en cuanto acabe de colgar esta entrada).
A modo de conclusión rápida
No soy, ni muchísimo menos, el primer economista en trabajar en estos temas. Susan Athey lleva años trabajando en cosas similares (aunque desde un enfoque distinto del mío). Aquí, por ejemplo, Athey discute varias de las ideas del campo y aquí, con Guido Imbens, dando unas clases magistrales sobre el tema.
En el otoño tengo programadas unas clases sobre aprendizaje automático. Si tengo tiempo de preparar unas transparencias con las que esté contento y
AlphaGo Skynet no nos ha convertido en sus esclavos, las colgaré en internet y las anunciaré aquí en NeG. Mientras tanto y en espera de la segunda entrada de esta serie el martes que viene, como dice una máquina de aprendizaje automático: “hasta la vista, baby!”
1. Los programas de ajedrez o de damas no son particularmente intrigantes desde el punto de vista de inteligencia artificial: aunque incorporan ideas interesantes de como evaluar posiciones en el tablero o de como simplificar la búsqueda de movimientos eliminando ramas del árbol de decisión de manera temprana, como reitero en el texto principal, al final del día se centran en la aplicación de fuerza bruta computacional. La victoria de DeepBlue sobre Kasparov en 1997, mientras que prueba significativa del avance en la velocidad de procesamiento, no era un cambio cualitativa en la capacidad de los ordenadores de descubrir estrategias de comportamiento óptimo. De igual manera que un ordenador puede calcular muchísimo más rápido que cualquier humano, un ordenador moderno puede evaluar muchos más movimientos de ajedrez, pero en cierto sentido no hay “mayor secreto” en ello.
{ 19 comentarios… léelos a continuación añade uno }
https://www.shadertoy.com/view/MdV3Wh
https://www.shadertoy.com/view/4dVGWw
Murphy http://people.ischool.berkeley.edu/~hal/Papers/2013/ml.pdf
AlphaGo es un gran logro de la ingeniería. Las ideas básicas estaban ahí hace tiempo (1) (la última, hace diez años) pero el aumento en la potencia de cálculo y el esfuerzo de unas mentes brillantes consiguió este espectacular resultado. Aún así, pienso que aún queda un largo camino hasta llegar a Terminator:-)
(1) La primera idea es el “aprendizaje por refuerzo”que enlaza con algo -creo- familiar a los economistas, la programación dinámica. Samuel aplicó con éxito esta idea a finales de los 50:
https://webdocs.cs.ualberta.ca/~sutton/book/ebook/node109.html
https://www.cs.virginia.edu/~evans/greatworks/samuel1959.pdf
y Tesauro logró un gran éxito en los 90 al aplicarla al backgammon:
http://www.bkgm.com/articles/tesauro/tdl.html
https://webdocs.cs.ualberta.ca/~sutton/book/ebook/node109.html
https://www.cs.virginia.edu/~evans/greatworks/samuel1959.pdf
y Tesauro logró un gran éxito en los 90 al aplicarla al backgammon:
http://www.bkgm.com/articles/tesauro/tdl.html
(2) La 2ª idea es la del “deep learning”:
http://www.cs.toronto.edu/~hinton/absps/NatureDeepReview.pdf
Tesauro empleó una red neuronal sencilla para conseguir un programa que jugaba al backgammon mejor que cualquier humano; pero para dominios más complejos es necesario emplear redes más sofisticadas. Hace un año Google presento DeepMind, un sistema que emplea redes neuronales “deep” que alcanzó prestaciones expertas en los “arcade games”:
https://www.cs.toronto.edu/~vmnih/docs/dqn.pdf
https://www.youtube.com/watch?v=V1eYniJ0Rnk
Pero no hay que dejarse llevar por la palabrería: las redes neuronales son dispositivos que estiman funciones no lineales; ni más, ni menos.
http://www.cs.toronto.edu/~hinton/absps/NatureDeepReview.pdf
Tesauro empleó una red neuronal sencilla para conseguir un programa que jugaba al backgammon mejor que cualquier humano; pero para dominios más complejos es necesario emplear redes más sofisticadas. Hace un año Google presento DeepMind, un sistema que emplea redes neuronales “deep” que alcanzó prestaciones expertas en los “arcade games”:
https://www.cs.toronto.edu/~vmnih/docs/dqn.pdf
https://www.youtube.com/watch?v=V1eYniJ0Rnk
Pero no hay que dejarse llevar por la palabrería: las redes neuronales son dispositivos que estiman funciones no lineales; ni más, ni menos.
(3) La 3ª idea, específica de los juegos bipersonales, es MonteCarlo Tree Search:
https://en.wikipedia.org/wiki/Monte_Carlo_tree_search
Desde 2006 (el año de la revolución deMonte Carlo en juegos) la técnica empezó a ser explotada sistemáticamente en los programas de Go.
https://en.wikipedia.org/wiki/Monte_Carlo_tree_search
Desde 2006 (el año de la revolución deMonte Carlo en juegos) la técnica empezó a ser explotada sistemáticamente en los programas de Go.
Google liberó el código de uno de sus algoritmos de redes neuronales, el TensorFlow. El mundo va muy deprisa.
https://www.quora.com/How-will-machine-learning-impact-economics?redirected_qid=6706789
Susan Athey, Stanford University and NBER and Guido Imbens, Stanford University and NBER Organizers
https://vimeo.com/136531605
-Guido Imbens
Introduction to Supervised ML Concepts and Algorithms
http://www.nber.org/econometrics_minicourse_2015/
Fuente articulo:
http://nadaesgratis.es/fernandez-villaverde/aprendizaje-profundo-i
Susan Athey, Stanford University and NBER and Guido Imbens, Stanford University and NBER Organizers
-Susan Athey
Machine Learning and Causal Inference
https://www.gsb.stanford.edu/faculty-research/faculty/susan-atheyMachine Learning and Causal Inference
https://vimeo.com/136531605
-Guido Imbens
Introduction to Supervised ML Concepts and Algorithms
http://www.nber.org/econometrics_minicourse_2015/
Fuente articulo:
http://nadaesgratis.es/fernandez-villaverde/aprendizaje-profundo-i
http://nadaesgratis.es/fernandez-villaverde/aprendizaje-profundo-ii
Aprendizaje profundo II
La semana pasada describí algunas de las ideas fundamentales detrás del aprendizaje automático. Hoy me toca, como prometí, presentar un brevísimo repaso de las ideas de aprendizaje profundo y su uso de redes neuronales artificiales de múltiples capas.
Neuronas Artificiales
Para ello mi primer cometido es explicar que es una neurona artificial. En la mayoría de los libros de texto, y como uno sospecharía por su propio nombre, las neuronas artificiales y el vocabulario de las mismas se motivan por su analogía con las neuronas naturales existentes en el sistema nervioso de los seres humanos.[1] Y aunque no quiero quitar mérito alguno a tal analogía, que estoy seguro funciona fenomenal con estudiantes provenientes de ingeniería o de ciencias naturales (o dejar de citar a nuestro grandísimo Ramón y Cajal), mi experiencia es que para los estudiantes de economía, quizás como consecuencia de sus menores conocimientos de biología, tal motivación confunde más que ayuda.
Mi explicación habitual cuando enseño a estudiantes de grado en economía enfatiza las neuronas artificiales son una forma de regresión no lineal muy similares a los logits (una idea con la que los economistas ya están familiarizados) y limita, en la medida posible, el uso de vocabulario que sea diferente del que empleamos habitualmente en econometría. Como tales regresiones no lineales, una neurona artificial no es más que una aproximación flexible a una esperanza condicional desconocida.
Más en concreto, una red neuronal es una transformación no lineal de una combinación lineal de variables. Primero, tomamos
variables observadas
y formamos una combinación lineal de los mismas:
dados unos pesos . La primera variable puede ser una constante y por tanto su peso se llama a veces el sesgo (o intersección en la terminología de regresiones). Segundo, transformamos con una función no-lineal:
Volviendo a mi explicación como esperanza condicional. Un agente se encuentra con el problema de decidir cuál es la esperanza de una variable condicional en unas variables observadas o, más concretamente, (que esta relación sea causal o no es irrelevante en este momento; solo estamos buscando un predictor).[2] Sin embargo, esta esperanza condicional es desconocida y la aproximamos como:
Esta estrategia funcionará de manera más que satisfactoria en circunstancias normales porque sabemos una función desconocida con ciertas propiedades de regularidad puede ser aproximada arbitrariamente bien con estas regresiones no lineales.
Un ejemplo muy sencillo clarifica la notación y la explicación de la esperanza condicional. Imaginemonos que somos una cadena de supermercados y queremos predecir el número de botellas de mi leche favorita que vamos a vender esta semana en nuestras distintas localizaciones en el area metropolitana de Filadelfia. Podemos seleccionar como variables características demográficas del vecindario (número de habitantes, edad media, renta media, etc.), temporales (temperatura esperada), ventas pasadas, etc. Cada una de estas variables es asignada un peso (volveremos en unos párrafos a cómo tales pesos se determinan, por el momento imaginémonos que un consultor profesional nos los da) y obtenemos un valor . La función transforma ese valor en una predicción de ventas para cada localización.
Llegados a este punto, mis lectores con ciertos conocimientos de economía se estarán preguntado cuál es la novedad de este enfoque con respecto a las regresiones no lineales que llevamos estimando desde hace al menos 60 años. La respuesta es que ninguna. La separación de la no linealidad en mientras mantenemos la estructura lineal en es conveniente, pero no deja de ser un detalle. Lo interesante viene ahora.
Redes Neuronales
Las neuronas artificiales se pueden combinar en diferentes capas para crear redes neuronales. Volviendo a nuestra notación anterior. Nuestras variables se organizan en una primera capa con distintas combinaciones lineales de los mismas:
cada una de ellas con pesos . Notemos que ahora los pesos están indiciados tanto por la combinación lineal, en los subíndices , como por la capa, en el superíndice.
Regresando a nuestro ejemplo de predicción de las ventas de botellas de leche en una cadena de supermercados: en vez de construir una sola variable , lo que hemos hecho ahora es construir diferente 's, cada una de las mismas con unos pesos distintos. La variable puede, imaginémonos, tener pesos más grandes en las variables demográficas y la variable puede preferir, en comparación, ponderar más las variables como ventas pasadas.
Las variables se pueden combinar, a su vez, en una función o emplear como insumos en una segunda capa:
cada una de ellas con pesos . Estas segundas variables son las que se pueden combinar a su vez en una función o servir como insumos en una tercera capa. Es más podemos emplear todas las capas que consideremos necesarias (los libros de texto mencionan que en el cerebro humano las neuronas se organizan hasta en seis capas; carezco de conocimientos para juzgar la exactitud de esta afirmación). Estas capas intermedias se suelen llamar capas ocultas, la capa inicial se suele llamar capa de entrada y la agregación con la función , capa de salida. El gráfico que inaugura esta entra es una representación de una red neuronal artificial con una capa de entrada y dos capas ocultas.
Aquí es importante señalar dos puntos. Primero, que el número de variables en la segunda capa puede ser igual o distinto del número de variables en la primera capa (o en cualquier otra capa). De igual manera podemos cambiar la función en cada capa. Ambas son decisiones del investigador (o quizás del algoritmo, si le damos flexibilidad para ello). Segundo, que esta estructura de capas no es mágica: no hay información nueva alguna diferente de las variables observadas . Lo único que hacemos con las distintas capas es crear una ponderación de las mismas altamente no lineal, lo que permite aproximar esperanzas condicionales particularmente complejas, pero en módulos lineales, lo cual es util para su implementación numérica práctica. De hecho, me estoy saltando todos los resultados matemáticos que demuestran relaciones de equivalencia entre distintas estructuras de una red y su posible reducción a una capa única.
Finalmente, y solo por enlazar con las partidas de go que sirvieron como motivación a esta serie, una red neuronal puede ser empleada para evaluar la situación de las fichas en el tablero en un momento determinado de la partida. En el caso del ajedrez, el ordenador sabe donde está cada caballo, torre o peón y, dados unos pesos, encuentra un valor asociado a esta situación. Una vez que tenemos la red neuronal, solo necesitamos que el ordenador encuentre todos los posibles movimientos a partir de la situación actual, compute todas las posibles respuestas del rival (iterando por varios movimientos y eliminando algunas ramas del árbol de movimientos que claramente están dominadas), evaluar el valor asociado a casa situación final después de esos movimientos y seleccionar el movimiento que maximiza tal valor (quizás jugando algún tipo de maxmin). En el caso de go, esta misma estrategia sufre de cuatro problemas. Primero, el tablero es más grande, con lo cual es más complejo capturar su situación con una red neuronal. Segundo, existen muchos más movimientos legales en cada momento (unos 250 en go frente a unos 35 en ajedrez), con lo cual es más difícil computar el valor al final de varias iteraciones. Tercero, al ser todas las fichas iguales (en ajedrez una reina es más valiosa que una torre y tenemos valores convencionales del valor relativo de las fichas que funcionan bien casi siempre), es más intrincado definir unos pesos en la red neuronal que encuentre valores en las posiciones futuras. Cuarto, las partidas suelen durar más (unos 150 movimientos en go frente a unos 80 en ajedrez). Estos cuatro problemas son lo que también empujan a los jugadores humanos de go a emplear la intuición y la imitación de los grandes maestros del pasado más que en ajedrez.
Encontrando pesos
En las dos secciones anteriores he descrito qué es una neurona artificial, cómo se pueden agrupar distintas neuronas en redes neuronales y cómo con estas redes podemos predecir o asignar un valor a una situación en el tablero (o recomendarnos que película queremos ver en Netflix). En toda la discusión, sin embargo, siempre asumí que conocíamos los pesos de la red y que sabíamos qué función emplear.
Ahora me voy a centrar, por tanto, en cómo encontrar estos pesos (las familias de funciones a emplear es más sencilla de explorar, con candidatos naturales como logits). La estrategia más sencilla es estimarlos con datos observados. Obtenemos muchas y muchas y buscamos los pesos que minimizan la distancia (según algún tipo de métrica) entre las observadas y las generadas por la red neuronal. Este problema de minimización es normalmente complejo y es preciso emplear técnicas relativamente sofisticadas, como elgradiente de descenso estocástico, para evitar quedarse atrapado en mínimos locales y encontrar los mínimos globales.[3] De igual manera, y cuando se tienen diferentes capas, hay que ser cuidadoso en como se ajustan los pesos en cada capa (con una propagación hacia atrás; a riesgo de simplificar quizás en exceso y pidiendo disculpas por ello: encontrando derivadas de los errores con respecto a los pesos empleando la regla de la cadena).
Una estrategia que a menudo funciona muy bien, y que yo he empleado en otros contextos, pertenece la familia de algoritmos genéticos:
1) Comenzamos con, por ejemplo, 10.000 valores iniciales de los pesos diferentes generados aleatoriamente. Cada uno de estos 10.000 valores iniciales definen una red neuronal particular.
2) Calculamos entonces cómo de bien cada una de las redes predice los datos. Este paso, en evolución, es la medida de aptitud de una estructura genética a su medio.
3) Seleccionamos, con reemplazo, 10.000 redes neuronales de entre las 10.000 que tenemos según su medida de aptitud. Es decir, las redes que han ajustado los datos mejor tienen una probabilidad más alta de ser seleccionadas y las redes que han ajustado peor una probabilidad más baja. La clave es que esta selección es con reemplazo: la red neuronal 2.345, que ajusta muy bien, puede ser seleccionada cuatro veces mientras que la red neuronal 4.531, que ajusta mal, es seleccionada en cero ocasiones. Como en evolución, las configuraciones genéticas con mayor aptitud tienen una probabilidad más alta de supervivencia y reproducción.
4) Y de igual modo que en la reproducción, ocurrirán mutaciones. Los pesos de la red neuronal 2.345 seleccionada para sobrevivir en el segundo paso del algoritmo no serán los mismos que los de la red 2.345 en la iteración anterior. Introduciremos un pequeño movimiento aleatorio en los mismos. Por ejemplo, si de la red 2.345 en la iteración 1 es 56.98, en la iteración 2 sera 56.98+innovación, donde innovación viene de una distribución Gaussiana (u otra distribución conveniente) con la escala adecuada (hay que encontrar un balance entre mutaciones novedosas y movimiento excesivo de las mismas).
5) Repetimos los pasos 2)-5) varios miles de veces.
6) Al final de la última iteración nos quedamos con la red neuronal que, a lo largo de toda la iteración, se haya ajustado mejor a los datos.
Es importante notar que el algoritmo recoge las dos ideas claves de la evolución: supervivencia (estocástica) de los más adaptados y mutaciones (también estocásticas) que generan nuevas estructuras genéticas. Las mutaciones son las que nos evitan quedarnos en mínimos locales y, bajo ciertas condiciones topológicas de la cadena de Markov implicada por el algoritmo descrito como la recurrencia de Harris en las que no quiero entrar, convergeremos al mínimo global con probabilidad 1. De igual manera, si el lector sabe algo de programación, se habra dado cuenta que este algoritmo son menos de 100 lineas en Julia: es facilísimo de programar y de correr.
En el caso de la predicción de la venta de leche, es obvio como implementar este algoritmo genético. En el caso de las redes neuronales en ajedrez o go, se puede modificar para que las redes jueguen con partidas históricas (en un primer paso), entre ellas (en un segundo paso) o contra seres humanos (en un tercer paso) y en vez de seleccionar las redes que ganan las partidas más a menudo. Esta fue la estrategia de AlphaGo.
Aprendizaje profundo
Finalmente, después de bastante trabajo preliminar, estamos en una situación en la que puedo explicar qué son las técnicas de aprendizaje profundo. Las redes neuronales tradicionales (u otros mecanismos semejantes) tienen un alto grado de estructuración: el diseñador de las mismas decide, basándose en su conocimiento del problema, el número de capas, neuronas, variables observadas, etc. En el ejemplo de la predicción de ventas de leche, el economista tiene que decidir qué variables son relevantes, ponerlas en un formato adecuado (como un fichero con los datos limpios y fáciles de leer por el ordenador), introducirlas en la código, etc. Las técnicas de aprendizaje automático más comunes pueden ayudar en seleccionar las pesos (como describimos antes) o incluso las variables posibles (con un búsqueda voraz como la expuesta la semana pasada), pero al final del día, el ordenador solo puede moverse dentro de un contexto muy estructurado.
Las técnicas de aprendizaje profundo buscan diseñar algoritmos en los cuales podamos dar al ordenador los datos en bruto (por ejemplo, muchos datos demográficos y de venta de leche) y que el ordenador mismo descubra cuáles son los datos relevantes y la estructuración de los mismos, reduciendo así al mínimo los insumos por parte del diseñador humano y facilitando la aplicación del algoritmo a situaciones nuevas y diferentes.
En particular, los algoritmos de aprendizaje profundo emplean cada una de las muchas capas de una red neuronal (o técnicas semejantes) para representar un nivel de abstracción diferente. Una estructura particularmente exitosa de estructurar estas capas múltiples han sido las redes neuronales convolucionales que propusieron Yann LeCun y sus coautores. Estos días las arquitecturas de las redes neuronales convolucionales tienen hasta 20 capas de unidades rectificadoras lineales. Además, estas múltiples capas pueden ser entrenadas con los algoritmos descritos en la sección anterior gracias a la generalización de las GPUs, que permiten la computación masiva en paralelo a un coste muy razonable (aquí un trabajo mío sobre el tema; AlphaGo emplea 280 de estas GPUs).
En el caso de AlphaGo, el programa tiene dos clases diferentes de redes neuronales con múltiples capas. Unas redes, llamadas redes de valor, evalúan la situación en el tablero. Unas segundas redes, llamadas redes de política, evalúan movimientos. Esta división en dos módulos diferentes es particularmente inteligente: en vez de buscar entre todas los posibles movimientos (como se hace en ajedrez, una vez eliminados los movimientos claramente inferiores), la red de política proponen un conjunto razonablemente reducido de movimientos que la red de valor evalúa. La posición el tablero es pasada a unas capas convolucionales como las que mencionábamos anteriormente. Los pesos fueron ajustados, primero mirando a movimientos de seres humanos expertos y posteriormente con ligeramente distintas versiones de las redes jugando entre ellas. Esta estrategia soluciona el problema de cómo evaluar la posición en el tablero de una manera muy diferente que en los programas de ajedrez: estos, por las razones expuestas anteriormente, podían emplear los conocimientos de expertos humanos para definir los pesos necesarios (quizás con ciertas mejoras por simulación). Pero en go no se podía hacer: incluso los mejores expertos tenían problemas en verbalizar porque unas situaciones del tablero eran mejores que otras. Es además el sentido en el que podemos decir que AlphaGo se ha enseñado a si mismo: los pesos no se los ha dado un ser humano, son producto de la evolución del sistema.
Concluyo aquí, ya acercándome a 3.000 palabras y con ello abusando de la paciencia incluso del lector más paciente, mi descripción de las ideas básicas del aprendizaje profundo. Los lectores con más conocimientos sobre estos temas sabrán que me he dejado más cosas en el tintero que las que he podido explicar y que, en varias ocasiones, he simplificado la explicación hasta peligrosamente acercarme a la incorrección. Por ejemplo, no he tenido tiempo de hablar de las redes neuronales recurrentes, que tanto interés han despertado en los tres últimos años. A fin de cuentas el material, para ser desarrollado en detalle, requeriría un libro de texto entero bastante largo (como este en preparación). Pero espero que los lectores con menos conocimientos hayan disfrutado, al menos, de una breve panorámica de las técnicas y las promesas de este campo y que los enlaces les sirvan para profundizar más lejos de mis brevísimas palabras.
2. Si en vez de la esperanza, buscamos otro momento como un percentil, solo tenemos que definir una función de interés de y
. Por ello limitarnos a la esperanza condicional no es restrictivo. Si tuviese más espacio, explicaría como podemos movernos de predictores a investigar causalidad. Es suficiente para mi propósito señalar que no hay nada especial en el tratamiento de causalidad en este campo y que aprendemos con las técnicas habituales (como variables instrumentales o experimentos) sigue funcionando aquí con sus fortalezas y debilidades.
3. Sorprendentemente en muchas ocasiones los investigadores han descubierto que distintos mínimos locales producen ajustes que son prácticamente indistinguibles en término de predicción.
Tapping the supercomputer under your desk: Solving dynamic equilibrium models with graphics processors$ Eric M. Aldrich a,f,, Jesu´ s Ferna´ndez-Villaverde b,c,d,e , A. Ronald Gallantf,g , Juan F. Rubio-Ramı´rez a,e
This paper shows how to build algorithms that use graphics processing units (GPUs) installed in most modern computers to solve dynamic equilibrium models in economics. In particular, we rely on the compute unified device architecture (CUDA) of NVIDIA GPUs. We illustrate the power of the approach by solving a simple real business cycle model with value function iteration. We document improvements in speed of around 200 times and suggest that even further gains are likely. & 2010 Elsevier B.V. All rights reserved.
http://economics.sas.upenn.edu/~jesusfv/GPU_Computing.pdf
↧
↧
¿Es la Economía una Ciencia? PEDRO REY BIEL
¿Es la Economía una Ciencia?
Recientemente nos alegró la noticia que nos dio Jesús respecto al cierre de un máster sobre homeopatía en la Universidad de Barcelona. No nos parece serio que una universidad pública otorgue ningún halo de prestigio científico a dar bolitas de azúcar diluidas en agua que como mucho, y en casos puntuales, parecen efectivas debido al efecto placebo (del que hablaremos otro día). Sin embargo, antes de convertirnos en guardianes de lo científico, no está de más que nos planteemos hasta qué punto nuestra disciplina, la economía, debe ser considerada una ciencia. Especialmente cuando leemos habitualmente comentarios de algunos de nuestros lectores sobre nuestra "visión neoliberal y ortodoxa" (por decirlo suave) de algo que, si fuera ciencia, no debería llevar a opiniones subjetivas. Y no se crean que son sólo ustedes, recientemente el ex-Ministro de Educación y Ciencia (y también físico) Javier Solana, se metía con los economistas en su twitter por aspirar a ser "como los físicos". Pero cuidado, que tampoco nosotros somos ajenos a la crítica sobre la carga ideológica que puede haber detrás de los supuestos que introducimos en nuestros modelos matemáticos, como discutió no hace mucho Samuel en esta entrada. Entonces, ¿en qué quedamos? ¿Ciencia o no ciencia?
Les voy a salir un poco por la tangente (ya que hablamos de matemáticas). Mi respuesta es que me da igual cómo lo llamen, mientras seamos honestos. Lo que les quiero decir es que deberíamos ser un poco más escépticos con aquellos economistas que ofrecen soluciones categóricasescondiéndose tras su posiciones académicas y cuatro cálculos en una pizarra. Ni todas las universidades son Harvard (o "Howargts", que decía una conocida) ni todos los cálculos son tan simples como nos quieren hacer ver.
Cuando la Economía es honesta, las cosas son más complicadas y es entonces cuando aparecen las limitaciones: los modelos teóricos se basan en supuestos sobre el comportamiento y las capacidades cognitivas de los agentes que toman decisiones y sobre las instituciones en que lo hacen, las bases de datos que utilizamos se circunscriben a unas circunstancias concretas y no son tan generales como nos gustaría, y nuestros experimentos están realizados bajo unas condiciones muy concretas.
Realizar recomendaciones de política económica, como reconocemos que en ocasiones hacemos en este blog, requiere siempre la suficiente modestia para entender estas limitaciones y nos fuerza a ser claros sobre ellas. Ésto no quiere decir que debamos hacernos nihilistas y pensar que lo que hacemos no tiene ninguna aplicación práctica. Tampoco que sea práctico cualificar constantemente nuestras opiniones económicas con la retahíla de condicionantes que nos llevan a nuestras conclusiones. Pero conviene ser un poco más transparente sobre la mera existencia de estas limitaciones. Ganaríamos mucho si el debate en lugar de centrarse sobre qué economista afirma que fue capaz de predecir la última crisis, lo hiciera sobre las razones por las qué muchos economistas académicos serios, basados en sus modelos y sus datos, no fueron capaz de predecirla. ¿Cómo debemos enriquecer nuestros modelos para que capturen los aspectos que se han mostrado más relevantes en los últimos episodios? ¿Qué datos podemos obtener que nos ayuden a prescribir mejores políticas económicas? En definitiva, ¿cómo podemos seguir aprendiendo?
Cuando la Economía es honesta, las cosas son más complicadas y es entonces cuando aparecen las limitaciones: los modelos teóricos se basan en supuestos sobre el comportamiento y las capacidades cognitivas de los agentes que toman decisiones y sobre las instituciones en que lo hacen, las bases de datos que utilizamos se circunscriben a unas circunstancias concretas y no son tan generales como nos gustaría, y nuestros experimentos están realizados bajo unas condiciones muy concretas.
Realizar recomendaciones de política económica, como reconocemos que en ocasiones hacemos en este blog, requiere siempre la suficiente modestia para entender estas limitaciones y nos fuerza a ser claros sobre ellas. Ésto no quiere decir que debamos hacernos nihilistas y pensar que lo que hacemos no tiene ninguna aplicación práctica. Tampoco que sea práctico cualificar constantemente nuestras opiniones económicas con la retahíla de condicionantes que nos llevan a nuestras conclusiones. Pero conviene ser un poco más transparente sobre la mera existencia de estas limitaciones. Ganaríamos mucho si el debate en lugar de centrarse sobre qué economista afirma que fue capaz de predecir la última crisis, lo hiciera sobre las razones por las qué muchos economistas académicos serios, basados en sus modelos y sus datos, no fueron capaz de predecirla. ¿Cómo debemos enriquecer nuestros modelos para que capturen los aspectos que se han mostrado más relevantes en los últimos episodios? ¿Qué datos podemos obtener que nos ayuden a prescribir mejores políticas económicas? En definitiva, ¿cómo podemos seguir aprendiendo?
Por ponerme un poco provocador, me centraré en la herramienta fundamental de mi área de investigación: los experimentos económicos. Podría hacerme un poco el estupendo e intentar argumentar que si definimos el método científico por la posibilidad de realizar experimentos controlados que permitan demostrar una verdad, la validez de una hipótesis o la eficacia de algo no probado, la economía experimental sería la única rama "científica" de la Economía. De hecho, la Asociación Internacional de Economía Experimental, de la que hasta recientemente fue presidente el premio Nobel de 2012 Alvin Roth, no tiene ese nombre, sino que, creo que con ganas de polemizar, se autodenomina Economic Science Association. Pero no pienso que tenga mucho sentido argumentar que toda ciencia debe ser experimental. Quienes únicamente utilizan modelos teóricos o realizan estimaciones empíricas ya existentes pueden ser tan (o tan poco) "científicos" como el experimentalista, dependiendo de que sus supuestos, sus cálculos o sus condiciones experimentales sean rigurosos. Conocemos tantos casos de artículos teóricos y empíricos que contenían cálculos erróneos o falsos, como de fraudes y fallos en la realización de experimentos económicos. Pero cuidado, que las ciencias "duras," no son ni mucho menos ajenas a errores y fraudes, que también tienen consecuencias importantes.
Volviendo a mi campo, quiero mencionarles dos razones para la esperanza y la seriedad de la economía académica. Por una parte, las mejores revistas de economía han incrementado los requisitos respecto a la descripción de la metodología adoptada y el envío de datos procedentes de experimentos, de forma que sea más fácil reproducir los experimentos de otros para comprobar cómo de generales son. Aún así tenemos el problema de que los incentivos para publicar en economía favorecen en exceso la novedad de los resultados, por lo que pocos investigadores se animan a replicar resultados. Relacionado precisamente con ello, está la segunda razón para el optimismo. Como se describía hace tres semanas en un artículo de The Economist, un amplio grupo de economistas, dirigido por Colin Camerer, ha reproducido los 18 artículos experimentales principales publicados en dos de las 5 mejores revistas de economía (American Economic Review y Quarterly Journal of Economics) desde 2011 a 2014. El estudio,publicado en Science, muestra que es posible replicar los resultados de 11 de los 18 experimentos. Qué poco serio, ¿no? Quizá si, pero un tasa de réplica del 61% de los estudios, parece al menos preferible al 31% de un estudio similar sobre artículos en Psicología y, antes de que se me echen encima sobre que las ciencias sociales no son ciencias... un 11% de los artículos sobre eficacia de medicamentos farmacéuticos. ¿Quizá ocurra que, como hemos aprendido del estudio de la Economía, los incentivos importan?
Les dejo por tanto sin una conclusión clara, pues no me importa tanto responder al título de esta entrada como que seamos un poco más serios en el debate. Los economistas debemos aprovechar la precisión que nos dan nuestras herramientas (las matemáticas, la econometría, los experimentos...) para ser rigurosos, y no como barrera de entrada a aquellos que no sepan utilizarlas. Seremos más creíbles si hacemos un esfuerzo por aceptar nuestras limitaciones y somos mas prudentes y honestos al ofrecer orientaciones de política económica. Sólo entonces, espero que dejen de decirnos aquello que en una metáfora bonita pero incorrecta, expresó el ex-ministro griego (y anteriormente economista académico) Varoufakis: "la economía es ideología disfrazada de ecuaciones". Seamos serios. Unos y otros.
-----------
Ver comentarios en el blog
Diferencias entre micro y macro economia
Diferencias entre micro y macro economia
El tipo de interes es un precio intertemporal. Y como todos los precios cambia segun cambian las circunstancias. El que esto tenga consecuencias sobre el rigor o valor de la macroeconomia es, sencillamente, un non sequitur y la comparacion con el metro en fisica inadecauda.
El equilibrio general enfatiza que hay efectos a nivel agregado que son diferentes de la suma de comportamientos individuales. Es trivial crear mil ejemplos de ello.
“Y, con respecto a los impuestos, ceteris paribus, las economías libres funcionan mejor que las intervenidas. No es el mercado el mayor productor de ineficiencias, ni ningún limitador de investigaciones.”
...en ningún momento he dicho yo lo contrario. Pero si lees a Adam Smith, a F.A. Hayek o a Milton Friedman, te van a decir que los impuestos son necesarios para que una economia de mercado funcione. Existen amplios campos de una economia moderna donde los mercados no pueden suministrar los bienes necesarios por problemas de falta de compromiso, asimetria de información y muchos otros. Y el mercado jamas va a suministrar financiación para investigación en ciencia basica.
Afirmar esto no supone que uno este a favor de una economía socialista de igual manera que afirmar que existe cierta evidencia empirica que un consumo moderado de vino (1 vaso al dia) puede tener efectos beneficiosos para la salud
no es un argumento para hacerse alcoholico. Dada tu frase “Como puede ser el caso de que, siendo los impuestos individualmente perjudiciales para cada familia y empresa, puedan a la vez ser beneficiosos para todo el conjunto social de familias y empresas” yo solo tengo que probar que existe un nivel de impuestos positivos que produce mas bienestar social que un nivel cero. Ese nivel puede ser perfectamente solo un 1% del PIB (aunque yo crea personalmente que haya de ser bastante mas).
La primera lección de economía el primer dia de clase es aprender a pensar en el margen.
El que los bancos centrales fijen el tipo de interes nominal a corto plazo ni quita ni da valor a la macro como disciplina de estudio de igual manera que el precio de la leche en el estado de Pennsylvania este intervenido le quita valor a la microeconomia (o que haya un señor cortando piernas a gente por la calle le quitaria valor a la traumatologia). La macroeconomia estudia cuales son las consecuencias de que el banco central siga tal politica. Hay macroeconomistas que estan de acuerdo con esta politica y macroeconomistas que estan en desacuerdo. Implicar que el tipo de interes es una medida “objetiva” y que por tanto el que esta cambie con el tiempo aleja a la macro de ser una disciplina rigurosa es confundir juicios normativos con positivos. En una economia sin gobierno y sin bancos centrales, el tipo de interes cambiaria todo el tiempo segun las circunstancias.
“Respecto a los impuestos, habría que demostrar el efecto multiplicador fiscal”
Eso NO es el multiplicador fiscal. Aqui
lo explicamos bastante bien. Los multiplicadores evalúan los efectos de cambios de impuestos o de gasto con respecto a un escenario base. Aqui estamos discutiendo si una economía de mercado puede o no funcionar sin un sector publico importante. La respuesta que nos da la evidencia historica (y con la que estan de acuerdo los mejores economistas de la tradición de liberales clasicos, como decia antes desde Adam Smith hasta F.A. Hayek) es que NO. El sector publico de Estados Unidos circa 1880, probablemente la economia de tamaño grande que mas cerca ha estado nunca de un estado como el ambicionado por los liberales clasicos, gastaba como un 9% del PIB. Y en la situacion actual, Richard Epstein
el liberal clasico mas prominente en Estados Unidos en estos momentos (y del que estoy muy orgulloso de ser amigo) siempre comenta que incluso en su situación ideal el vería el sector publico americano gastando cerca del 20% del PIB.
“el cálculo de la planificación central supera a la descentralizada de los agentes respecto al nivel de bienestar total. Que sería la razón ‘científica’ para legitimar la confiscación, supongo”
Pretender que el defender la sensatez de un sector publico de un tamaño razonable es estar de acuerdo con la planificacion y el socialismo es un maximalismo retorico que destruye la credibilidad de todos los que defendemos la economia de mercado. En un ejemplo que le gustaba citar mucho a Hayek: estar a favor de que en las autopistas haya policía de trafico no significa estar a favor de que le digamos a los conductores donde tienen que ir.
Usted dice que se daría con un canto en los dientes si el sector publico solo recaudase un 1% del PIB. No, usted viviria pobre y aterrado. Con un 1% no podriamos pagar la defensa nacional, la policia y los jueces. El aparato de seguridad de un estado moderno (en especial si no es como España y no “gorronea” de la defensa que le dan sus vecinos) requiere un 5-6% de PIB de gasto. Y otras actividades basicas del gobierno, como infraestructuras que no se pueden privatizar y servicios publicos que desde Adam Smith todos los liberales clásicos han defendido los estados tenian que suministrar, te requiere al menos otro 3-4%. Sin ese gasto, como minimo, de un 9% del PIB sufririamos el miedo diario, sin imperio de la ley y sometidos a los deseos de los Putin, Maduros e ISIS del mundo.
Jesús Fernández-Villaverde
CAMBRIDGE, Mass. — THERE’S an old lament about my profession: if you ask three economists a question, you’ll get three different answers.
This saying came to mind last week, when the Nobel Memorial Prize in Economic Science was awarded to three economists, two of whom, Robert J. Shiller of Yale and Eugene F. Fama of the University of Chicago, might be seen as having conflicting views about the workings of financial markets. At first blush, Mr. Shiller’s thinking about the role of “irrational exuberance” in stock markets and housing markets appears to contradict Mr. Fama’s work showing that such markets efficiently incorporate news into prices.
What kind of science, people wondered, bestows its most distinguished honor on scholars with opposing ideas? “They should make these politically balanced awards in physics, chemistry and medicine, too,” the Duke sociologist Kieran Healy wrote sardonically on Twitter.
But the headline-grabbing differences between the findings of these Nobel laureates are less significant than the profound agreement in their scientific approach to economic questions, which is characterized by formulating and testing precise hypotheses. I’m troubled by the sense among skeptics that disagreements about the answers to certain questions suggest that economics is a confused discipline, a fake science whose findings cannot be a useful basis for making policy decisions.
That view is unfair and uninformed. It makes demands on economics that are not made of other empirical disciplines, like medicine, and it ignores an emerging body of work, building on the scientific approach of last week’s winners, that is transforming economics into a field firmly grounded in fact.
It is true that the answers to many “big picture” macroeconomic questions — like the causes of recessions or the determinants of growth — remain elusive. But in this respect, the challenges faced by economists are no different from those encountered in medicine and public health. Health researchers have worked for more than a century to understand the “big picture” questions of how diet and lifestyle affect health and aging, yet they still do not have a full scientific understanding of these connections. Some studies tell us to consume more coffee, wine and chocolate; others recommend the opposite. But few people would argue that medicine should not be approached as a science or that doctors should not make decisions based on the best available evidence.
As is the case with epidemiologists, the fundamental challenge faced by economists — and a root cause of many disagreements in the field — is our limited ability to run experiments. If we could randomize policy decisions and then observe what happens to the economy and people’s lives, we would be able to get a precise understanding of how the economy works and how to improve policy. But the practical and ethical costs of such experiments preclude this sort of approach. (Surely we don’t want to create more financial crises just to understand how they work.)
Nonetheless, economists have recently begun to overcome these challenges by developing tools that approximate scientific experiments to obtain compelling answers to specific policy questions. In previous decades the most prominent economists were typically theorists like Paul Krugman and Janet L. Yellen, whose models continue to guide economic thinking. Today, the most prominent economists are often empiricists like David Card of the University of California, Berkeley, and Esther Duflo of the Massachusetts Institute of Technology, who focus on testing old theories and formulating new ones that fit the evidence.
This kind of empirical work in economics might be compared to the “micro” advances in medicine (like research on therapies for heart disease) that have contributed enormously to increasing longevity and quality of life, even as the “macro” questions of the determinants of health remain contested.
Consider the politically charged question of whether extending unemployment benefits increases unemployment rates by reducing workers’ incentives to return to work. Nearly a dozen economic studies have analyzed this question by comparing unemployment rates in states that have extended unemployment benefits with those in states that do not. These studies approximate medical experiments in which some groups receive a treatment — in this case, extended unemployment benefits — while “control” groups don’t.
These studies have uniformly found that a 10-week extension in unemployment benefits raises the average amount of time people spend out of work by at most one week. This simple, unassailable finding implies that policy makers can extend unemployment benefits to provide assistance to those out of work without substantially increasing unemployment rates.
Other economic studies have taken advantage of the constraints inherent in a particular policy to obtain scientific evidence. An excellent recent example concerned health insurance in Oregon. In 2008, the state of Oregon decided to expand its state health insurance program to cover additional low-income individuals, but it had funding to cover only a small fraction of the eligible families. In collaboration with economics researchers, the state designed a lottery procedure by which individuals who received the insurance could be compared with those who did not, creating in effect a first-rate randomized experiment.
The study found that getting insurance coverage increased the use of health care, reduced financial strain and improved well-being — results that now provide invaluable guidance in understanding what we should expect from the Affordable Care Act.
Even when such experiments are unfeasible, there are ways to use “big data” to help answer policy questions. In a study that I conducted with two colleagues, we analyzed the impacts of high-quality elementary school teachers on their students’ outcomes as adults. You might think that it would be nearly impossible to isolate the causal effect of a third-grade teacher while accounting for all the other factors that affect a child’s life outcomes. Yet we were able to develop methods to identify the causal effect of teachers by comparing students in consecutive cohorts within a school. Suppose, for example, that an excellent teacher taught third grade in a given school in 1995 but then went on maternity leave in 1996. Since the teacher’s maternity leave is essentially a random event, by comparing the outcomes of students who happened to reach third grade in 1995 versus 1996, we are able to isolate the causal effect of teacher quality on students’ outcomes.
Using a data set with anonymous records on 2.5 million students, we found that high-quality teachers significantly improved their students’ performance on standardized tests and, more important, increased their earnings and college attendance rates, and reduced their risk of teenage pregnancy. These findings — which have since been replicated in other school districts — provide policy makers with guidance on how to measure and improve teacher quality.
These examples are not anomalous. And as the availability of data increases, economics will continue to become a more empirical, scientific field. In the meantime, it is simplistic and irresponsible to use disagreements among economists on a handful of difficult questions as an excuse to ignore the field’s many topics of consensus and its ability to inform policy decisions on the basis of evidence instead of ideology.
http://www.nytimes.com/2013/10/21/opinion/yes-economics-is-a-science.html?_r=1
Conferenciantes NO Economistas críticos con los Economistas.....
Leemos artículos y asistimos a conferencias criticas con los economistas, que nos dejan perplejos, al plantear criticas sin fundamento, mezclando nociones, mezclando teorías liberales clásicas con teorías no existentes como la neoliberal, argumentando sus enfoques con frases sueltas de economistas, que no reflejan la totalidad de sus investigaciones.
ejemplos...errores de quienes defienden la economía de mercado libre, siendo posible la regulación donde sea necesario (por fallas de mercado, por información asimetrica, etc) por este motivo los ordoliberales, los defensores de la economia de mercado, defienden la regulación y la intervención del estado donde sea necesario.
Se cita a Adam Smith, casi siempre por el tema de la "mano invisible" cuando en realidad en toda su obra solo dedica un párrafo a este tema, y limitando mucho al analisis de su época, mayoritariamente artesanal, cuando dejo claro que no se referia a las grandes empresas
Se cita a Adam como liberal no defensor del estado, cuando en realidad defendia que hay infraestructuras que no se pueden privatizar y defendía los servicios públicos
Se cita a Adam Smith como defensor del egoísmo económico, cuando parte de su obra defendia la etica y la moral
Se cita a Hayek en contra de lo publico cuando decia..."estar a favor de que en las autopistas haya policía de trafico no significa estar a favor de que le digamos a los conductores donde tienen que ir."
Se critica a los economistas, como si no supieran los limites naturales, cuando son los primeros en afirmar en todos los manuales de economía, que los economistas deben de estudiar la eficacia en la utilización de los mínimos recursos
↧
Long term vegetarian diet changes human DNA raising risk of cancer and heart disease
Long term vegetarian diet changes human DNA raising risk of cancer and heart disease
ong term vegetarianism can lead to genetic mutations which raise the risk of heart disease and cancer, scientists have found.
Populations who have had a primarily vegetarian diet for generations were found to be far more likely to carry DNA which makes them susceptible to inflammation.
Scientists in the US believe that the mutation occured to make it easier for vegetarians to absorb essential fatty acids from plants.
But it has the knock-on effect of boosting the production of arachidonic acid, which is known to increase inflammatory disease and cancer. When coupled with a diet high in vegetable oils - such as sunflower oil - the mutated gene quickly turns fatty acids into dangerous arachidonic acid.
The finding may help explain previous research which found vegetarian populations are nearly 40 per cent more likely to suffer colorectal cancer than meat eaters, a finding that has puzzled doctors because eating red meat is known to raise the risk.
Researchers from Cornell University in the US compared hundreds of genomes from a primarily vegetarian population in Pune, India to traditional meat-eating people in Kansas and found there was a significant genetic difference.
“Those whose ancestry derives from vegetarians are more likely to carry genetics that more rapidly metabolise plant fatty acids,” said Tom Brenna, Professor of Human Nutrition at Cornell.
“In such individuals, vegetable oils will be converted to the more pro-inflammatory arachidonic acid, increasing the risk for chronic inflammation that is implicated in the development of heart disease, and exacerbates cancer.
“The mutation appeared in the human genome long ago, and has been passed down through the human family.”
To make the problem worse, the mutation also hinders the production of beneficial Omega 3 fatty acid which is protective against heart disease. Although it may not have mattered when the mutation first developed, since the industrial revolution there has been a major shift in diets away from Omega 3 – found in fish and nuts - to less healthy Omega 6 fats - found in vegetable oils.
"Changes in the dietary Omega 6 to Omega 3 balance may contribute to the increase in chronic disease seen in some developing countries,” added Dr Brenna.
“The message for vegetarians is simple. Use vegetable oils that are low in omega-6 linoleic acid such as olive oil.”
The mutation is called rs66698963 and is found in the FADS2 gene which controls the production of fatty acids in the body.
Previous studies have shown that vegetarianism and veganism can lead to problems with fertility by lowering sperm counts.
Separate research from Harvard University also found that a diet high in fruit and vegetables may impact fertility because men are consuming high quantities of pesticides.
Many vegetarians also struggle to get enough iron, vitamin D, vitamin B12 and calcium which are essential for health. One study found that vegetarians had approximately five percent lower bone-mineral density (BMD) than non-vegetarians.
However other research suggests vegetarianism lowers the risk of diabetes, stroke and obesity.
The new research was published in the journal Molecular Biology and Evolution.
http://www.telegraph.co.uk/news/2016/03/29/long-term-vegetarian-diet-changes-human-dna-raising-risk-of-canc/
Dieta mediterranea, equilibrada, es la mejor opción. Extremos como veganos, o carnivoros, asumen un riesgo, como también asumen un riesgo quienes comen pescado crudo.http://www.telegraph.co.uk/news/2016/03/29/long-term-vegetarian-diet-changes-human-dna-raising-risk-of-canc/
Dieta mediterranea, equilibrada, es la mejor opción. Extremos como veganos, o carnivoros, asumen un riesgo, como también asumen un riesgo quienes comen pescado crudo.http://www.telegraph.co.uk/news/2016/03/29/long-term-vegetarian-diet-changes-human-dna-raising-risk-of-canc/
↧
La ciencia sin las humanidades es un error, como las humanidades sin la ciencia tambien seria un error
Debate: ¿las humanidades se encargan de alimentar el ego humano, la ciencia se dedica a bajarle los humos?
¿Los que no saben ciencia están completamente ciegos? (I)
La ciencia no matará a la filosofía: solo a la mala filosofía.
¿Los que no saben ciencia están completamente ciegos? (I)
Hasta qué punto es importante la ciencia para desenvolvernos en el mundo? No ya tanto la acumulación de datos científicos inequívocos (como que las espinacas en realidad no tienen demasiado hierro, por mucho que lo dijera Popeye) sino el hecho de contemplar las cosas a través de un prisma científico.
¿Se puede decir que la gente que observa el mundo y a sí misma bajo ese prisma tiene las gafas mejor graduadas que el resto de la gente? ¿Es exagerado afirmar que los segundos sufren de presbicia o cataratas?
En la actualidad, la gran línea divisoria entre los seres humanos ya no es tanto la raza o la religión. Tampoco es tan importante el alguien sea culto o analfabeto. Todas esas personas, en mayor o menor medida, en el fondo son muy similares a la hora de discurrir.
Lo que divide a los seres humanos y los convierte en criaturas altamente diferenciadas, como podrían serlo los Australopitecus y los Homo Sapiens, no es otra cosa que el saber científico. Entonces es cuando las personas viven de verdad en universos diferentes.
Un individuo que ha crecido ajeno al saber científico está incluso más huérfano que alguien nacido en una cultura preletrada. Un individuo así podría, de hecho, definirse en gran parte como C. R. Hallpike define las culturas preletadas en The Foundations of Primitive Though (y además alardeará de ello y lo considerará más humano, más holístico, más prístino):
Intuitivo y dogmático, ligado a relaciones emocionales específicas más que a la causalidad física, opaco a la abstracción lógica o a conjuntos de lo que es hipotéticamente posible, propenso a usar el lenguaje para la interacción social más que como herramienta conceptual, limitado a cuantificación principalmente a imágenes burdas de frecuencia y rareza.
Todos estos rasgos impregnan y enriquecen las metáforas del arte. Son parte de la civilización moderna. Pero no son más que rémoras en cuanto ponemos en marcha el pensamiento lógico-deductivo, que es en gran parte un producto especializado y raro, basado en oleadas de emociones encontradas cuya influencia recíproca se resuelve mediante una interacción de factores hereditarios y ambientales.
Las personas acientíficas, sin los instrumentos y el saber acumulado de las ciencias naturales (física, química y biología) son, como describe Edward O. Wilson:
Seres humanos atrapados en una prisión cognitiva. Son como peces inteligentes que nacen en un estanque profundo y oscuro. Curiosos e inquietos, deseando salir, piensan en el mundo exterior. Inventan ingeniosas especulaciones y mitos sobre el origen de las aguas que los confinan, del sol y las estrellas que hay arriba, y del significado de su propia existencia. Pero se equivocan, siempre se equivocan, porque el mundo es demasiado ajeno a la experiencia ordinaria para ser siquiera imaginado.
Y, a pesar de todo, al ser la ciencia una herramienta tan extraña y ortopédica para el cerebro humano, socialmente se considera que una persona es culta cuando sabe enumerar de memoria los ríos y afluentes de un país, o demuestra haber leído clásicos de la literatura, o parafrasea a los grandes filósofos del pasado (también acientíficos). Y este intelectual puede afirmar alegremente que no le interesan las matemáticas, o equivocarse en una afirmación astronómica, y jamás nadie le tachará de ignorante por ello. Pero si un físico comete un desliz en el campo humanístico, automáticamente será considerado un pobre bobo, un individuo desconectado del mundo y de las personas.
Pero de nuevo quiero insistir en que la ciencia no sólo se basa en acumular conocimientos científicos. También es una forma de mirar y de pensar que requiere de un adiestramiento. Un duro entrenamiento a fin de derribar intuiciones, automatismos e inercias psicoemocionales que todos poseemos al nacer.
En la próxima entrega de este panegírico a la ciencia ahondaré un poco más en ello.
http://www.xatakaciencia.com/otros/los-que-no-saben-ciencia-estan-completamente-ciegos-i
La ciencia no es una filosofía ni un sistema de creencias. Es una combinación de operaciones mentales que se adquiere por hábito, nunca por herencia genética. Nadie nace científico, aunque todos nazcamos con propensión a emocionarnos con las historias de ficción o la música.
La ciencia no es algo natural. Es una construcción humana que va más allá de nuestros sentidos y nuestras reflexiones, y que desafía continuamente lo que creemos saber sobre el mundo y sobre nosotros mismos.
La ciencia nos ha descubierto que literalmente estamos ciegos a casi todo lo que sucede en la realidad que nos rodea. Una cultura precientífica creía la luz visible era la única luz que existía. Atrapada en la caverna de Platón no podía advertir jamás que había más luz que no podía registrar con sus torpes sentidos.
La ciencia instrumental ha descubierto lo que hay más allá, y ha determinado quela luz visible sólo es una ínfima parte de la radiación electromagnética, que comprende longitudes de onda de 400 a 700 nanómetros, dentro de un espectro que va desde las ondas gamma, billones de veces más cortas, a las ondas de radio, billones de veces más largas.
La retina humana no está preparada para recibir toda esta información, aunque sí lo esté para leer un libro de Pablo Coelho. No importa que continuamente nos llueva encima toda esa radiación. Sabíamos menos de ella que del final dePerdidos.
Ahora los científicos son capaces de traducir cualquier longitud de onda en luz visible y sonido audible, como traductores de una lengua extranjera de la que nunca hubiéramos oído hablar y nos explicaran la realidad de forma más amplia y profunda. ¿Acaso se armó tanto revuelo al descubrirse algo así del que se armaría al descubrir el enésimo libro perdido de algún autor clásico de historias de ficción?
Cuánto tiempo perdemos en nuestras miserias cotidianas, prisioneros de lo que nos parece lo más trascendental del mundo, hablando de todo sin ver más allá de lo que nos muestran nuestros sentidos forjados por la evolución darwiniana a fin de sobrevivir en la sabana africana. Cuánto tiempo sin tener presente que hoy, los científicos, ya pueden visualizar la materia a través de 37 órdenes de magnitud.
El mayor de los racimos de galaxias es mayor que la menor de las partículas conocidas por un factor del número uno seguido por unos 37 ceros.
De esta manera la ciencia ha ampliado nuestra visión. Y también nuestro oído: la gama auditiva del ser humano va de los 20 a los 20.000 Hz, o ciclos de compresión de aire por segundo. Un una gama suficiente para oír lo que nos dice otra persona, o las historias de los jefes de la tribu o la del profesor de filosofía. Pero desde 1950, los zoólogos pueden escuchar batallas nocturnas que antes eran mudas: con receptores, transformadores y fotografía nocturna pueden seguir cada chillido y maniobra nocturna de los murciélagos, que emiten pulsos ultrasónicos.
No pretendo faltar al respeto a nadie cuando digo que las personas precientíficas, con independencia de su genio innato, no podrían adivinar nunca la naturaleza de la realidad física más allá de la minúscula esfera que es abarcable mediante el sentido común no ayudado. Ninguna otra cosa funcionó nunca, ningún ejercicio a partir de los mitos, la revelación, el arte, el trance o cualquier otro medio concebible; y a pesar de la satisfacción emocional que produce, el misticismo, la sonda precientífica más fuerte hacia lo desconocido, a dado un resultado cero. No hay conjuro de chamán ni ayuno en lo alto de una montaña sagrada que pueda convocar al espectro electromagnético. Los profetas de las grandes religiones no sabían de su existencia, no porque su dios fuera reservado, sino porque carecían de los conocimientos de física que sólo se consiguen con mucho esfuerzo.
Los textos sagrados, los textos de filosofía, las novelas de todos los tiempos… absolutamente nadie mencionó qué era y cómo funcionaba todo el espectro electromagnético que no podemos ver. Todo ellos hablaron siempre de cosas invisibles, sí. Pero nunca de una tan obvia y fácil de descubrir como el espectro electromagnético.
Sencillamente porque usaban una manera de pensar las cosas que no era eficaz. Sencillamente porque estuvieron ciegos a lo largo de toda la historia de la humanidad. Y sólo ahora empezamos a vislumbrar retazos de la realidad, en poco menos de un siglo de avances acumulativos y sistemáticos fundados en esta nueva forma de pensar antinatural y rara.
En la próxima entrega de este artículo profundizaré en las razones que han llevado al ser humano, el supuesto culmen de la creación, a nacer tan ciego, tan sordo y tan poco preparado para pensar objetivamente
III
El ser humano es medio ciego, medio sordo y medio tonto porque… bien, porque, con esas condiciones, tuvo suficiente para sobrevivir. Sobrevivir, reproducirse y permitir que los hijos hereden esas características tan limitadas aunque suficientes para seguir adelante.
De algún modo es como si el proceso evolutivo dijera: bueno, a pie tardaremos una semana en llegar a aquella montaña, pero tampoco hay prisa. Lo importante es que vayas andando, comiendo algo por el camino y, sobre todo, reproduciéndote con los miembros del sexo contrario que te encuentres a fin de que tus hijos, cuando tú mueras, puedan seguir el camino. De hecho, ni siquiera es relevante que llegues a algún sitio. ¿Para qué voy a dotarte de alas?
Por esa razón la ciencia diseñó las alas artificiales y, con un aeroplano, llegó a la cima de aquella montaña. Ya no dependía de las reglas de la naturaleza. La ciencia nos hizo volar, literal y metafóricamente.
La selección natural, definida como la supervivencia diferencial y la reproducción de formas genéticas diferentes, prepara los organismos sólo para necesidades. La capacidad biológica evoluciona hasta que maximiza la eficacia de los organismos para los nichos que ocupan, y ni un ápice más. Cada especie, cada tipo de mariposa, murciélago, pez, y primate, incluido el Homo sapiens, ocupa un nicho concreto. De ahí se sigue que cada especie vive en su propio mundo sensorial.
Imagino que os estaréis preguntando: ¿cómo es posible entonces que la ciencia se haya desarrollado? ¿Qué es lo que provocó la revolución científica si somos ahora tal y como éramos hace miles de años y la ciencia apenas tiene unas décadas de vida?
Hubo 3 precondiciones que, por azar, nos condujeron a la revolución científica.
La primera fue la curiosidad ilimitada y el impulso creador de las mejores mentes (cualidades evolutivamente importantes).
La segunda fue el poder innato de abstraer las cualidades esenciales del universo. Esta capacidad la poseían nuestros antepasados neolíticos.
La tercera fue lo que el físico Eugene Wigner llamó una vez la efectividad irracional de las matemáticas en las ciencias naturales. Es decir:
La correspondencia de la teoría matemática y de los datos experimentales, en particular en física, es extrañamente elevada. Es tan elevada que obliga a creer que las matemáticas son, en algún sentido profundo, el lenguaje natural de la ciencia. (…) Las leyes de la física son en realidad tan exactas que trascienden las diferencias culturales.
Dicho de otro modo: si algún día nos visitaran seres extraterrestres inteligentes, no sabemos si les gustarán las obras de Shakespeare o la música deMozart (probablemente les parecerá una cacofonía como a nosotros su arte alien). Lo que sí sabemos con seguridad es que, si esos extraterrestres tienen por ejemplo energía nuclear y naves espaciales, habrán descubierto exactamente las mismas leyes que nosotros.
La física de cualquier ser inteligente de cualquier planeta del universo podría traducirse isomórficamente, punto por punto, de conjunto a punto, y de punto a conjunto, en una notación humana. Eso nos haría universales.
Pero yo, a veces, ni siquiera entiendo lo que me dice en el ascensor el vecino del quinto segunda. Y os aseguro que no es alienígena. Creo.
Comentarios del articulo :
Supongo que no falta decir que mientras que las humanidades se encargan de alimentar el ego humano, la ciencia se dedica a bajarle los humos. No estamos en el centro del sistema solar, ni de la galaxia, ni somos el objetivo de la evolución, ni somos diferentes del resto de animales. Esto conviene recordarlo, porque desde las humanidades siempre se nos ha recordado que somos el animal que piensa, el Homo sapiens que luego se ha utilizado en la taxonomía. Pero en realidad somos:
Eukaryota Animalia Eumetazoa Bilateria Deuterostomia Chordata Vertebrata Gnathostomata Tetrapoda Mammalia Theria Placentalia Euarchontoglires Primates Haplorrhini Simiiformes Catarrhini Euarchonta Hominoidea Hominidae Homininae Hominini Hominina Homo H. sapiens
Es decir, la ciencia se encarga de recordarnos que somos un animal irracional superviviente descendiente de supervivientes descendientes de supervivientes y que incorporamos una serie de patrones de conducta que nada tienen que ver con el razonamiento objetivo y que se acerca más a la exaltación del ego ejercido desde las humanidades o las religiones.
-Lo diré de una forma muy clara: solo se compite entre iguales, entre desiguales solo se coopera. Si ciencia y humanidades son iguales, entonces compiten, si no compiten es porque son desiguales. Yo abogo por la segunda opción.
De hecho, añadiría que las humanidades sirven para entender (y soportar) nuetro pasado, mientras que las ciencias sirven para entender y encauzar el futuro. Pero esto es una interpretación humanística, es decir hecha a medida de mis gustos.
Dejo sin comentar esto de cómo un ser racional puede tener ego, que por definición es irracional.
Debatible:
¿entre desiguales solo se coopera? vs teoría de juegos
volviendo al titulo....
La ciencia sin las humanidades es un error, como las
humanidades sin la ciencia también seria un error
------------------------------
¿Ha matado la ciencia a la filosofía?
Francis Crick, codescubridor de la doble hélice del ADN, aseguraba con mala uva que el único filósofo de la historia que había tenido éxito era Albert Einstein
No tan muerta
Por Javier Sampedro
Yo, señor, soy un científico raro. Sé que meterse con los filósofos es una de las aficiones favoritas de los científicos. Francis Crick, codescubridor de la doble hélice del ADN, aseguraba con característica mala uva que el único filósofo de la historia que había tenido éxito era Albert Einstein. El genetista y premio Nobel Jaques Monod dedicó un libro entero, El azar y la necesidad,a reírse de los filósofos marxistas, y el cosmólogo Stephen Hawking ha declarado con gran aparato eléctrico que “la filosofía ha muerto”, lo que ha dejado de piedra a los filósofos y seguramente a los muertos. Pero fíjense en que todos esos dardos venenosos no son expresiones científicas, sino filosóficas, y que por tanto se autorrefutan como una paradoja de Epiménides (ya les dije que yo era un científico raro).
¿Qué quiere decir Hawking con eso de que la filosofía ha muerto? Quiere decir que las cuestiones fundamentales sobre la naturaleza del universo no pueden responderse sin los datos masivos que emergen de los aceleradores de partículas y los telescopios gigantes. Quiere decir que la pregunta “¿por qué estamos aquí?” queda fuera del alcance del pensamiento puro. Quiere decir que el progreso del conocimiento es esclavo de los datos, que su única servidumbre es la realidad, que cuando una teoría falla la culpa es del pensador, nunca de la naturaleza. Un físico teórico sabe mejor que nadie que, pese a que la ciencia es solo una, hay dos formas de hacerla: generalizando a partir de los datos y pidiendo datos a partir de las ecuaciones. Einstein trabajó de la segunda forma, pensando de arriba abajo. Pero ese motor filosófico también le condujo a sus grandes errores, como la negación de las aplastantes evidencias de la física cuántica con el argumento de que “Dios no juega a los dados”. Como le respondió Niels Böhr: “No digas a Dios lo que debe hacer”.
La ciencia no matará a la filosofía: solo a la mala filosofía.
Una cooperación fecunda
Por Adela Cortina
La filosofía es un saber que se ha ocupado secularmente de cuestiones radicales, cuyas respuestas se encuentran situadas más allá del ámbito de la experimentación científica. El sentido de la vida y de la muerte, la estructura de la realidad, por qué hablamos de igualdad entre los seres humanos cuando biológicamente somos diferentes, qué razones existen para defender derechos humanos, cómo es posible la libertad, en qué consiste una vida feliz, si es un deber moral respetar a otros aunque de ello no se siga ninguna ganancia individual o grupal, qué es lo justo y no sólo lo conveniente. Sus instrumentos son la reflexión y el diálogo bien argumentado, que abre el camino hacia ese “uso público de la razón” en la vida política, sin el que no hay ciudadanía plena ni auténtica democracia. El ejercicio de la crítica frente al fundamentalismo y al dogmatismo es su aliado.
En sus épocas de mayor esplendor la filosofía ha trabajado codo a codo con las ciencias más relevantes, y ha sido la fecundación mutua de filosofía y ciencias la que ha logrado un mejor saber. Porque la filosofía que ignora los avances científicos se pierde en especulaciones vacías; las ciencias que ignoran el marco filosófico pierden sentido y fundamento.
Hoy en día son especialmente las éticas aplicadas a la política, la economía, el desarrollo, la vida amenazada y tantos otros ámbitos las que han mostrado que el imperialismo de un solo saber, sea el que fuere, es estéril, que la cooperación sigue siendo la opción más fecunda. Habrá que mantener, pues, la enseñanza de la ética y de la filosofía en la ESO y en el bachillerato, no vaya a ser que, al final, científicos como Hawking o Dawkins acaben dándole la razón a la LOMCE.
http://cultura.elpais.com/cultura/2014/12/30/babelia/1419956198_209450.html---------------------------------
Adela Cortina: “Hoy en día son especialmente las éticas aplicadas a la política, la economía, el desarrollo, la vida amenazada y tantos otros ámbitos las que han mostrado que el imperialismo de un solo saber, sea el que fuere, es estéril, que la cooperación sigue siendo la opción más fecunda. Habrá que mantener, pues, la enseñanza de la ética y de la filosofía en la ESO y en el bachillerato, no vaya a ser que, al final, científicos como Hawking o Dawkins acaben dándole la razón a la LOMCE.”
Y también con el final de Javier Sampedro:
“La ciencia no matará a la filosofía: solo a la mala filosofía”
Añadiría de mi cosecha: Ramón Arbe
Ojalá que la Filosofía sea capaz de matar la mala ciencia
↧
Usos completamente estúpidos de la tecnología: el sistema sanitario español
Usos completamente estúpidos de la tecnología: el sistema sanitario español
El martes pasado viví una experiencia completamente absurda: todos los años, desde hace ya catorce, imparto un programa de alta dirección, un Advanced Management Program, en el Balneario de Mondariz, en el Sur de Galicia. En esta ocasión viajaba acompañado de mi mujer: habíamos pasado las vacaciones de Semana Santa en nuestra casa en La Coruña, y aprovechamos para prolongar un día, bajar en coche, detenernos en Mondariz, y después, continuar viaje de vuelta hacia Madrid.
Mi mujer sufre de migrañas con cierta regularidad, lo que hace que lleve siempre encima un medicamento, Sumatriptán, que le hace efecto generalmente con cierta eficiencia. Sin embargo, tras una semana de vacaciones y con la mala suerte de haber sufrido ya un par de crisis migrañosas, había consumido ya las pastillas que llevaba encima, y se encontraba en ese momento sin ninguna encima. Cuando estamos en Madrid, adquirir Sumatriptán es tan sencillo como acudir a una farmacia con la tarjeta sanitaria de la seguridad social y, dado que se trata de una dolencia crónica, mostrarla para que comprueben en el ordenador que puede adquirir una o dos cajas de cuatro comprimidos cada cierto tiempo, en función del cálculo de sus posibles necesidades de consumo.
El Sumatriptán es un principio activo que puede adquirirse como Imigrán, de GlaxoSmithKline, o algo más barato en su versión genérica. No tiene ningún tipo de uso secundario, posibles utilizaciones como psicotrópico o valor alguno en el mercado negro: es, simplemente, un medicamento contra determinados tipos de migraña, que debe como tal ser prescrito por un médico. Dado el funcionamiento de las farmacias en España, es un medicamento que, de manera habitual, puede adquirirse sin necesidad de exhibir la correspondiente receta: yo mismo lo he adquirido en numerosas ocasiones sin problemas cuando mi mujer está con alguna de sus crisis. Sin embargo, es perfectamente posible que el farmacéutico decida que, por la razón que sea, quiere exigir la receta, e incluso que se niegue a dispensarlo en función de criterios de difícil explicación.
El martes por la tarde, mi mujer comenzó con uno de sus episodios migrañosos, y se encontró sin ninguna pastilla a mano. En esas circunstancias, lo mejor es tratar de tomar la primera pastilla lo antes posible: una vez que la migraña supera un límite determinado, ya no hay quien la pare, y puede durar más de un día con dolores fuertes. Acudimos a una farmacia rápidamente, para encontrarnos con que el farmacéutico decidió que, por la razón que fuese, debía exigirnos la receta. Le comentamos que la receta era electrónica y que dependía de la tarjeta sanitaria de mi mujer, de la Comunidad de Madrid. Ante esa circunstancia, el dependiente nos dijo que le resultaba completamente imposible verificar esa información porque el sistema no le permitía acceder a ella al ser de un sistema sanitario de otra comunidad autónoma, y que por tanto, no podía vendernos el medicamento. Como solución, nos ofreció irnos al ambulatorio de la Seguridad Social de Ponteareas, donde podríamos acudir al servicio de urgencias y pedir a un médico que nos extendiese una receta.
Un poco de sentido común, por favor: como solución a un problema completamente absurdo y puramente tecnológico, me proponen que acuda a un médico que, sin ninguna posibilidad de determinar de una manera mínimamente rigurosa si un medicamento es adecuado a una dolencia determinada o no (diagnosticar una migraña requiere diversas pruebas y lleva tiempo), tiene que aceptar que el paciente le dice que su dolencia es crónica, que está perfectamente diagnosticada por un médico en Madrid, y que por favor, le extienda la receta de un medicamento que el farmacéutico se niega a venderle.
Obviamente, no acudimos al ambulatorio. Contribuir a saturar el servicio de urgencias para que simplemente me extiendan un papel es algo que resulta suficientemente absurdo e ineficiente como para intentarlo primero de otras maneras. Entré en otra farmacia, pedí el medicamento, y me lo vendieron sin ningún problema. Obviamente, no intenté beneficiarme de la bonificación en el precio a la que me daría acceso la receta de la Seguridad Social, cosa que tampoco había pretendido en la farmacia anterior, pero a la que hipotéticamente debería tener derecho: simplemente pagué el precio completo y me fui a buscar un vaso de agua.
¿Qué país desarrollado genera un sistema sanitario tan profundamente disfuncional que obliga a semejantes cuestiones? ¿Qué estúpida razón llevó a transferir a las comunidades autónomas las competencias de Sanidad, para que dieran lugar a un demencial sistema que multiplica los gastos, los priva de posibles economías de escala, y encima convierte a cada comunidad autónoma en un compartimento estanco, que imposibilita o dificulta profundamente que los ciudadanos accedan a los beneficios de un sistema de ámbito estatal como la Seguridad Social? Lógicamente, eso implica que tampoco se podrá acceder a datos de cualquier paciente de una comunidad autónoma desde otra, sean pruebas diagnósticas, historiales médicos o lo que sea… ante un accidente en una comunidad autónoma distinta de la tuya, olvídate que que quienes te atiendan puedan acceder a todos los datos que la Seguridad Social de tu comunidad podría hipotéticamente tener sobre ti. Genial.
En pleno siglo XXI, en un país relativamente pequeño como España y dotado con uno de los mejores sistemas sanitarios del mundo, hemos decidido que el mejor uso de los recursos públicos era crear diecisiete sistemas de información diferentes, uno para cada comunidad autónoma, no conectados entre sí, completamente independientes y estancos, de manera que un ciudadano español con una receta perfectamente válida en Madrid no pueda obtener el medicamento que necesita para su dolencia si está en algún otro lugar… de su propio país!!!! Uno de los grandes beneficios que se supone debería traernos la tecnología, la capacidad de acceder a datos que se encuentran en otro lugar, convertido en completamente inútil. Enhorabuena: hemos conseguido rizar el rizo de la estupidez y darle un par de vueltas más.
https://www.enriquedans.com/2016/04/usos-completamente-estupidos-de-la-tecnologia-el-sistema-sanitario-espanol.html
↧
↧
Poner fin al desempleo. ¿Queremos? ¿Podremos? César Molinas | Pilar García Perea
Poner fin al desempleo. ¿Queremos? ¿Podremos?
Una propuesta analítica sobre la ocupación y el empleo en España
Sinopsis de Poner fin al desempleo. ¿Queremos? ¿Podremos?:
Con la desgarradora cifra de más de cuatro millones de parados, el mercado laboral español es una aberración en cuanto a desempleo y precariedad laboral.
Desde finales de los años setenta del siglo pasado la tasa de paro española ha estado entre un cinco y un diez por ciento por encima no sólo de la de los países europeos más desarrollados, sino también de la de muchos países del tercer mundo.
Este desastre, sin parangón en Europa, no obedece a causas estrictamente económicas: la mayor parte del paro es estructural, es decir, es consecuencia de leyes que lo provocan, de instituciones que lo impulsan, de prácticas perversas que lo mantienen y de un sistema educativo disfuncional que es una auténtica máquina de generar parados.
Para evitar quedar descolgada del primer mundo, España necesita hacer reformas profundas, tanto en el mercado de trabajo y las leyes que lo regulan, como en el sistema educativo actual.
Desde finales de los años setenta del siglo pasado la tasa de paro española ha estado entre un cinco y un diez por ciento por encima no sólo de la de los países europeos más desarrollados, sino también de la de muchos países del tercer mundo.
Este desastre, sin parangón en Europa, no obedece a causas estrictamente económicas: la mayor parte del paro es estructural, es decir, es consecuencia de leyes que lo provocan, de instituciones que lo impulsan, de prácticas perversas que lo mantienen y de un sistema educativo disfuncional que es una auténtica máquina de generar parados.
Para evitar quedar descolgada del primer mundo, España necesita hacer reformas profundas, tanto en el mercado de trabajo y las leyes que lo regulan, como en el sistema educativo actual.
PRIMERA PARTE LAS TENDENCIAS GLOBALES DE LA OCUPACIÓN
Capítulo 1. La demografía. .. . . . . . . . . . . .................................................... . . . . . . . . . . 21
1.1. Del Neolítico a la Revolución industrial. . . . .................................................... . . . . . 22
1.2. De la Revolución industrial a nuestros días. . . .................................................... . . . 25
1.3. ¿Demografía endógena o exógena?: la transición demográfica. . . . . . . . . . . . . . . . . . . . . 29
Capítulo 2. La globalización . . . . . . . . . . . . . ........................................................................... . 39
2.1. Los efectos redistributivos de la globalización económica. . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2. Globalización y Estado de bienestar. . . . . . . . .............................................................. . . . . 48
1.1. Del Neolítico a la Revolución industrial. . . . .................................................... . . . . . 22
1.2. De la Revolución industrial a nuestros días. . . .................................................... . . . 25
1.3. ¿Demografía endógena o exógena?: la transición demográfica. . . . . . . . . . . . . . . . . . . . . 29
Capítulo 2. La globalización . . . . . . . . . . . . . ........................................................................... . 39
2.1. Los efectos redistributivos de la globalización económica. . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2. Globalización y Estado de bienestar. . . . . . . . .............................................................. . . . . 48
Capítulo 3. La digitalización y la aceleración del cambio tecnológico. . . . . . . . . . . . . . . . . . 55
3.1. La ley de Moore: la diferencia está en la velocidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2. Digitalización, demanda agregada, PIB y empleo.......................................................... . 64
3.3. La desigualdad y el papel de la educación. . ........................................................ . . . . . 69
3.4. Tecnología y democracia. . . . . . . .. . . . . . . . ........................................................ . . . . . 73
3.3. La desigualdad y el papel de la educación. . ........................................................ . . . . . 69
3.4. Tecnología y democracia. . . . . . . .. . . . . . . . ........................................................ . . . . . 73
Capítulo 4. El crecimiento potencial y el estancamiento secular. . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1. ¿Está bajando el crecimiento potencial?. . . . . . . ...................................... . 76
4.2. El crecimiento potencial de la economía española. .................................... 80
4.3. Estancamiento secular, tipos de interés negativos y demografía. . .. . . . . . . . . . . . . . . . . . . . 84
4.2. El crecimiento potencial de la economía española. .................................... 80
4.3. Estancamiento secular, tipos de interés negativos y demografía. . .. . . . . . . . . . . . . . . . . . . . 84
4.4. Deflación, tipos de interés y demografía. . . .. ....................................... . . . 87
SEGUNDA PARTE LA GÉNESIS DE LA ANOMALÍA LABORAL ESPAÑOLA
Capítulo 5. La génesis de la anomalía laboral española (I): una historia de la prohibición de despedir. . . . . . . . . . . 97
5.1. Prohibido despedir: el mercado laboral en el franquismo. . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 5.2. Conflictividad laboral y cierre de empresas: el mercado de trabajo en la Transición. . .. . . . 102
5.3. La estabilización económica y política: la cláusula erga omnes ex ante. . . . . . . . . . . . . . . 107
5.4. El Estatuto de los Trabajadores de 1980: se abre la posibilidad de despedir. . . . .. . . . . . . 109
5.5. La prohibición de despedir y la segmentación entre fijos y eventuales. . . . . . . . . . . . . . . . 115
5.6. Las reformas de 2012: pasos en la buena dirección que deben continuarse. . . . . . . . . . . 123
5.7. Un modelo de insiders-outsiders con estabilidad política e infrautilización crónica de los recursos productivos. . . . . . . . . . . . . . . . . . . . . ...................................... . . . . . . . . . . . . 134
5.8. Las reformas no han conseguido suprimir las anomalías. . . . . . . . . . . . . . . . . . . . . . . . . . . 140 Capítulo 6. La génesis de la anomalía laboral española (II): la historia de una acumulación de capital humano disfuncional. . . . . . . . . . . . . . . . . . . . . . ......................... . . . . . 143
5.8. Las reformas no han conseguido suprimir las anomalías. . . . . . . . . . . . . . . . . . . . . . . . . . . 140 Capítulo 6. La génesis de la anomalía laboral española (II): la historia de una acumulación de capital humano disfuncional. . . . . . . . . . . . . . . . . . . . . . ......................... . . . . . 143
6.1. La educación y la formación profesional en el franquismo. . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 6.2. La educación en un mundo más técnico y globalizado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
6.3. La educación y la formación profesional en la España democrática. . . . . . . . . . . . . . . . . . . . 156
6.4. La distribución bipolar de las cualificaciones laborales en España. . . . . . . .. . . . . . . . . . . . . 162
6.5. La formación para el empleo. . . . . . . . . . . . ............................................................... . . . . 169
TERCERA PARTE LAS REFORMAS NECESARIAS EN ESPAÑA
Capítulo 7. Propuestas para reformar el mercado de trabajo en España. . . . . . . . . . . . . . . . . . 175
7.1. Reducir el activismo judicial introduciendo sistemas de mediación para la solución de conflictos individuales. ........................................................................................... 178
7.2 Liberar la negociación colectiva de la servidumbre erga omnes. . . . . . .. . . . . . . . . . . . . . . . 183
7.3. Racionalizar el despido y unificar los contratos. ............................ 187
7.3. Racionalizar el despido y unificar los contratos. ............................ 187
7.4. La indemnización por despido debería ser finalista............................ 191
7.5. Las políticas activas de empleo. . . . .. . . . ............................... . . . . . 197
7.5. Las políticas activas de empleo. . . . .. . . . ............................... . . . . . 197
Apéndice al capítulo 7: Consideraciones sobre la mochila austríaca. . . ... . . . . . . . . . . . . . . . . 203
Capítulo 8. Hay que aumentar la competencia y la meritocracia en el sistema educativo. . . . 207
8.1. Primero la gestión, luego el dinero. . . . . . . . . . . . . 214
8.2. El papel de los centros de excelencia y el ejemplo del deporte. . . . . . . . . . . . . . . . . . . . . . 216
8.3. Educar para la creatividad. . . . . . . . . . . . . . . . . . . 220
8.4. ¿Qué hacer con la Universidad?. . . . . . . . . . . . . . 224
8.4. ¿Qué hacer con la Universidad?. . . . . . . . . . . . . . 224
8.5. La formación profesional. . . . . . . . . . . . . . . . . . . . 227
Agradecimientos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
La demografía
El cambio demográfico es el telón de fondo contra el que actúan los principales condicionantes del mercado de trabajo. La demografía es causa directa o indirecta de fenómenos aparentemente tan dispares como la caída de las tasas de actividad y de empleo en las sociedades desarrolladas, como las dificultades de financiación que experimentan los sistemas de pensiones —no solo los sistemas de reparto sino también, como veremos, los de capitalización— y como la aparición de presiones deflacionistas globales que erosionan la eficacia con que los bancos centrales pueden actuar sobre el crecimiento económico y el empleo. Por poner solo tres ejemplos relevantes. En el presente siglo se producirá una situación demográfica inédita en la historia de la Humanidad: la población se reducirá —ya está ocurriendo en algunos países, España entre ellos— y la esperanza de vida continuará creciendo. Esto causará cambios muy importantes en la sociedad, la economía y el mercado de trabajo......
.... ¿qué ocurrió para que las familias ducales comenzasen a incrementar su esperanza de vida de forma sostenida a partir de mediados del siglo XVIII mientras que la el conjunto de la población permanecía estancada? La respuesta, como señala Deaton, está en el entorno propicio que introdujo la Ilustración para poner en duda dogmas establecidos y para fomentar el conocimiento y la innovación. Se introdujeron remedios exóticos contra la malaria (quinina), sífilis (guayaco) y otras enfermedades, y comenzó a extenderse el uso de la virolación, prevacuna rudimentaria contra la viruela, que redujo la mortalidad por esta enfermedad de manera significativa. Todos estos remedios eran muy caros, lo que restringía su aplicación a las clases pudientes que, por conocimiento o por moda, empezaron a usarlos. La tasa de mortalidad de la aristocracia empezó a bajar. También comenzaron a aplicarse principios básicos de higiene, tanto privados como públicos —por ejemplo lavarse las manos antes y después de practicar determinadas operaciones, como asistir a los partos—....
...Susan Hockfield, neurocientífica y decimosexta presidenta del Massachusetts Institute of Technology (MIT) declaró en 2007 que «así como el siglo xx se caracterizó por la convergencia de la ingeniería con la física, el siglo xxi se caracterizará por la convergencia de la ingeniería con las ciencias de la vida».10 Es probable que los cambios que se avecinan, como de costumbre, sorprendan al alza en lo que a la esperanza de vida se refiere.
http://static0.planetadelibros.com/libros_contenido_extra/32/31988_Poner_fin_al_desempleo.pdf
↧
Nos educan para ser mediocres
Nos educan para ser mediocres. Sí, así de claro. ¿Te sorprende esta afirmación?
Que conste ante todo que mis padres son profesores y que admiro el trabajo de todos ellos. He visto a diario como hacen lo posible cada día por enseñar a sus alumnos lo mejor que pueden y también como se han frustrado en muchas ocasiones.
http://masymejor.com/nos-educan-para-ser-mediocres/
La culpa no es de ellos, sino del sistema. Este sistema educativo anclado en la era industrial cuya finalidad es crear “obreros” que sigan en la misma rueda.
Estoy de acuerdo en que debe haber una alfabetización básica que es necesaria:
- Aprender a leer
- Aprender a escribir
- Matemáticas básicas
- Cultura general sobre la naturaleza, los animales, el mundo, el cuerpo humano…
Pero más allá de todo esto, admitámoslo, ¿cuántos de nosotros nos acordamos de todos los ríos y afluentes de España? ¿O de fechas de acontecimientos históricos?
Y peor aún, ¿para que nos sirven realmente estas cosas a la hora de afrontar los problemas reales que tenemos en el día a día?
El mundo ha cambiado. Ahora la información está a un click de ratón. El conocimiento ya está al alcance de todos.
Así que, ¿por qué seguir dándole tanta importancia a memorizar datos concretos?
¿Para qué quiero saber hacer una raíz cuadrada si el ordenador la hace en menos de un segundo?
¿Por qué no potenciar más la creatividad y el talento único de cada persona?
¿Por qué no potenciar cosas que solo podemos aportar los seres humanos y no una máquina o un ordenador?
¿QUE DEBERÍAN ENSEÑARNOS EN CLASE?
Para responder esta pregunta habría que hacer otra: ¿cuáles son los problemas reales que todos tenemos en el día a día?
Problemas con el dinero, discusiones, no saber tomar decisiones, miedos, falta de autoestima…
¿No sería mejor que nos enseñarán a gestionar todo esto desde bien pequeños?
Sin embargo, no es hasta que somos adultos y nos hemos equivocado mil veces, nos hemos frustrado, nos hemos sentido paralizados, que algunos empezamos a interesarnos por cómo mejorar en todos esos aspectos y carencias.
Otros, por desgracia, no llegan a ver ese camino y siguen en esa vida de lucha y frustración.
Se me ocurren infinidad de temas que podrían enseñarnos cuando somos niños pero que sin embargo, he tenido que aprender yo por mi cuenta cuando he sido mayor y he “abierto” los ojos. Cuando he fallado y me he equivocado.
- Gestionar nuestro tiempo y ser más productivos.
- Establecer objetivos a largo plazo y tomar decisiones.
- Saber usar y gestionar nuestro dinero de forma inteligente.
- Trabajar en equipo. Debatir y dialogar civilizadamente.
- Buscar información y solucionar problemas de distintas formas.
- Hablar en público – ¿sabes que la mayoría de la gente tiene menos miedo a la muerte que a hablar en público?
- Comunicarnos con los demás de manera asertiva.
- Entender y gestionar nuestras emociones.
- Alimentarnos de manera saludable para tener energía y vitalidad.
- Entrenar tu mente mediante la meditación para prevenir el estrés y vivir más el presente.
- Cómo enfrentar los miedos.
¿No os parecen todas estas cosas mucho más útiles que otras muchas que nos enseñan en el instituto o la universidad?
Sin duda, el mundo sería mucho mejor y se solucionarían muchos problemas cotidianos si la gente tuviera estas herramientas.
LA EDUCACIÓN MATA NUESTRA CREATIVIDAD Y NUESTRO TALENTO
Pero no queda aquí la cosa. No solo no se nos dan las herramientas básicas para afrontar problemas cotidianos de la vida, sino que poco a poco nos van moldeando y quitando todo atisbo de genuinidad o creatividad.
Y es que tanto en el sistema educativo, como en las empresas, se estigmatizan los fallos. Fallar es lo peor que puedes hacer. Así que nadie se arriesga, nadie prueba cosas nuevas, por miedo a fallar, a equivocarnos y a no cumplir las expectativas.
Nos obligan a esforzarnos en mejorar nuestras carencias en vez de potenciar nuestros talentos.
Nos educan para ser uno más, para no destacar en la masa. Para seguir el camino establecido y seguir participando de este sistema. Nos hacen creer que necesitamos hacer lo mismo que todos para ser felices. Que no podemos salirnos de la norma.
Todo esto nos impide conseguir nuestros objetivos y el éxito con el que siempre soñamos.
Sir Ken Robinson lo explica muy bien en su charla TED en la que dice que la educación no necesita un cambio sino una transformación completa.
Todos tenemos capacidades únicas y un potencial infinito pero se encargan de que pensemos que todo eso son tonterias.
¿Bailar? ¿Cantar? ¿Pintar? ¿Emprender? ¿Es que estamos locos? ¿Quien nos hemos creido para pensar que podemos crear nuestro propio camino?
CONCLUSIÓN
Nuestro sistema educativo está anclado en la era industrial. No sirve para el mundo de hoy. El mundo cambia a ritmo acelerado pero los gobiernos, las grandes empresas, los que tienen el poder, se niegan a aceptar los cambios y quieren seguir en su monopolio.
Quieren seguir controlándonos. Quieren que sigamos siendo mediocres e ignorantes. Quieren que sigamos participando de este sistema capitalista basado en el consumo irresponsable. Este sistema que nos hace cada vez más infelices y que además esta destrozando nuestro planeta.
Prefieren que sigamos viendo la tele y no cuestionando nada. Pero por suerte cada vez somos más los que cuestionamos.
El mundo necesita profesionales creativos y capaces de pensar por ellos mismos. Y la única solución a esto es tomar las riendas, ser proactivo y asumir la responsabilidad de tu formación y de tu vida.
Para nosotros la única vía de felicidad y satisfacción personal es desarrollar nuestro máximo potencial y ser la mejor versión de nosotros mismos. Es la única forma de dar al mundo lo mejor de tí y sentirte realizado.
El mundo necesita gente con actitud y con ganas. No tengas miedo a emprender. No tengas miedo a ser extraordinario.
¿Que opinas de la educación en España y en general? ¿Crees que te han inculcado creencias limitantes? ¿Qué cosas crees que te hubieran sido útiles aprender desde pequeño?
↧
Caso Panama....involucrados y RC 2008
Una masiva filtración de 11,5 millones de documentos ha dejado al descubierto la relación de importantes figuras mundiales —desde empresarios a políticos, pasando por deportistas o personas de primer nivel ligadas a la cultura— con el despacho de abogados panameño Mossack Fonseca. Desde mediados de los años setenta, bancos de primera línea internacional como el suizo UBS o el británico HSBC trabajan o han trabajado con este bufete para gestionar los activos offshore (opacos) de sus clientes. Estos son algunos de los nombres más relevantes que figuran en los papeles, a los que ha tenido acceso el diario alemánSueddeutsche Zeitung y que después han sido compartidos con medios de todo el mundo —en España los han publicado El Confidencial y La Sexta— a través del Consorcio Internacional de Periodismo de Investigación (ICIJ, por sus siglas en inglés)
-Sigmundur David Gunnlaugsson. El primer ministro islandés y su mujer utilizaron una firma offshore —Wintris Inc.— para ocultar millones de dólares en inversiones en tres grandes bancos durante la crisis financiera.
http://internacional.elpais.com/internacional/2016/04/05/actualidad/1459862900_105412.html?rel=mas
http://internacional.elpais.com/internacional/2016/04/04/actualidad/1459758071_497979.html
http://elpais.com/tag/papeles_panama/a
Refundando el capitalismo
Las pomposas promesas de combatir los paraísos fiscales no casan con los tratos bajo cuerda que hacen con ellos todos los países, España incluida
Parece que fue ayer cuando, tras hundirse el castillo de naipes del capitalismo de casino, los líderes mundiales se reunieron en Washington para poner pie en pared ante los especuladores globales. Tras las vacaciones de lujo en el yate de su amigo multimillonario, Nicolas llevo a la cumbre del G-20 su pomposa propuesta de "refundar el capitalismo" y liquidar los paraisos fiscales...Aplausos en la sala , risas en el auditorio...
http://www.elperiodico.com/es/noticias/opinion/papeles-panama-refundando-capitalismo-5030649
Sarkozy propone refundar sobre bases éticas el capitalismo
El presidente de Francia convoca para diciembre una gran cumbre económica
Nicolas Sarkozy quiere "refundar el capitalismo" para lo que convocará a "los principales líderes mundiales" antes de fin de año para reconstruir, "partiendo de cero", el sistema financiero internacional, tal y como se hizo en la conferencia de Bretton Woods tras la II Guerra Mundial (en la que se adoptó el dólar como moneda internacional). De vuelta de Nueva York, el presidente francés pronunció ayer en Toulon, arropado por los miembros del Gobierno y por los diputados de la mayoría en el poder, su esperado discurso sobre la situación económica y aseguró que la crisis no ha terminado. "Sus consecuencias serán duraderas, afectará al crecimiento, al empleo y al poder adquisitivo", dijo.
Pero la culpa no es del capitalismo. Porque para Sarkozy hay un buen capitalismo y un mal capitalismo. "La crisis financiera por la que pasamos no es la crisis del capitalismo, es la crisis de un sistema que se ha alejado de los valores del capitalismo, que en cierto modo los ha traicionado". Y marca "el fin de un mundo que se construyó sobre la caída del muro de Berlín, cuando una generación creyó que la democracia y el mercado arreglarían por sí solos todos los problemas". Un sueño que, según el líder francés, se ha roto bajo el peso de las plagas de este siglo: el terrorismo, las derivas identitarias, el riesgo ecológico o eldumping, entre otras.
"La autorregulación para resolver todos los problemas, se acabó; le laissez faire, c'est fini", proclamó. "Hay que refundar el capitalismo sobre bases éticas, las del esfuerzo y el trabajo, las de la responsabilidad, porque hemos pasado a dos dedos de la catástrofe", advirtió. Repitió sus diatribas contra los sueldos y los beneficios de los ejecutivos financieros y amenazó con una ley para regular sus prebendas. Recogió retazos de sus viejos discursos y disparó contra sus demonios familiares. El "desorden de las monedas está en el corazón de la crisis", dijo, y apuntó al dólar y el yuan chino como culpables de que las industrias europeas no sean competitivas.
Para configurar un capitalismo y un sistema financiero con bases sanas, Sarkozy pretende reunir antes de fin de año a "los líderes mundiales" -no especificó cuales- en una conferencia remedo de Bretton Woods, para lo cual, aseguró, ya cuenta con el apoyo de la canciller alemana, Angela Merkel. "No podemos gestionar la economía del siglo XXI con los instrumentos del siglo XX", dijo. Reivindicó la "legitimidad" de los poderes públicos para intervenir en la regulación del sistema financiero, hizo un "llamamiento a Europa a reflexionar sobre lo que está sucediendo" y echó un cabo al tradicional proteccionismo galo: "La competencia es un medio, no un fin".
Al capitalismo financiero, Sarkozy contrapone el capitalismo industrial, que propugna el crecimiento a largo plazo, no la especulación, y para el que ahora se abren grandes oportunidades, especialmente en el campo del reto ecológico y energético.
Ya en clave doméstica, garantizó a los franceses que sus ahorros y sus planes de pensiones no corren ningún peligro porque el Estado, si es necesario, cubrirá cualquier quiebra. "La crisis nos lleva a acelerar las reformas", señaló.
París
http://elpais.com/diario/2008/09/26/internacional/1222380007_850215.html
Panama Papers: Bernie Sanders avisou para problema do Panamá... em 2011
Candidato que disputa nomeação democrata com Hillary Clinton focou papel do Panamá na fuga ao fisco num discurso em Outubro de 2011.
http://videos.sapo.pt/QqvrMVGVMAyT5WLtJ6jP
Bernie Sanders, rival de Hillary Clinton na nomeação democrata para a corrida presidencial, avisou em 2011 para o papel do Panamá enquanto plataforma de fraude fiscal. Num vídeo agora recuperado, Sanders falou perante o Senado, em Outubro desse ano, para se mostrar contra a assinatura do acordo de livre comércio entre os EUA e o Panamá. Salientando que o argumento de que o acordo iria ajudar a criar empregos nos EUA não era válido, Sanders questionava qual a verdadeira razão para o assinar: na sua opinião, a possibilidade de os milionários e as grandes empresas tirarem partido da protecção fiscal ilegal do país.
O acordo foi mesmo aprovado pelo Congresso, e Hillary Clinton congratulou-se com o mesmo, salientando que a abertura do comércio ao abrigo daquele tipo de acordos iria ajudar à criação de emprego.
Um dos pontos polémicos dos Panama Papers foi que, até agora, não há qualquer informação sobre empresas e indivíduos norte-americanos e a sua eventual relação com a Mossack Fonseca, a firma no centro do escândalo. Uma das razões poderá ser uma cláusula do projecto de acordo entre EUA e Panamá, de 2010, que estabelecia que o sigilo fiscal panamiano não poderia ser suscitado perante as autoridades norte-americanas. O que tornou, no mínimo, menos apelativo o recurso dos americanos ao Panamá para práticas fiscais ilícitas. Ainda assim, alguns dos jornalistas envolvidos na mega-investigação aos Panama Papers têm prometido para breve novidades envolvendo os EUA.
↧
El miedo como factor en los mercados mundiales
El miedo como factor en los mercados mundiales
CAMBRIDGE – La extraordinaria volatilidad que experimentaron los mercados el año pasado está fuertemente vinculada con riesgos e incertidumbres genuinos, debidos a factores como el crecimiento chino, los bancos europeos y el exceso de oferta de petróleo. En los dos primeros meses de este año, muchos inversores entraron en pánico al considerar la posibilidad de que hasta Estados Unidos, el país con la historia de crecimiento más reconfortante, estuviese a punto de caer en recesión. De hecho, el 21 % los expertos que participan en la encuesta mensual del Wall Street Journal creían que la recesión estaba a la vuelta de la esquina.
No negaré que existen riesgos. Un golpe lo suficientemente grande al crecimiento de China o al sistema financiero europeo ciertamente podría convertir el lento crecimiento de la economía mundial en recesión. Una idea aún más aterradora es que a esta altura del año que viene, la presidencia estadounidense tal vez se haya convertido en unreality show.
Sin embargo, desde una perspectiva macroeconómica, las variables fundamentales no se ven tan mal. Los datos sobre el empleo y la confianza de los consumidores se ven sólidos, y el sector petrolero no es lo suficientemente grande respecto del PIB como para que el colapso de sus precios ponga a la economía estadounidense de rodillas. De hecho, el impulsor menos valorado del sentimiento del mercado en la actualidad es el miedo a otra gran crisis.
Existen algunos paralelismos entre el actual desasosiego y el sentimiento del mercado en la década posterior a la Segunda Guerra Mundial. En ambos casos tenemos una gigantesca demanda de activos seguros (por supuesto, la represión financiera también jugó un papel importante en la posguerra, ya que los gobiernos forzaron a los inversores privados a comprar deuda a tasas de interés inferiores a las del mercado).
Incluso una década después de la Segunda Guerra Mundial, cuando el famoso economista John Kenneth Galbraith opinó que el mundo podría experimentar otra depresión, hubo agitación en los mercados. La gente aún recordaba la caída del 90 % de la bolsa estadounidense durante los primeros años de la Gran Depresión. Allá por la década de 1950, no era difícil imaginar que las cosas pudieran complicarse una vez más. Después de todo, el mundo terminaba de transitar una serie de catástrofes, entre las que se contaban dos guerras mundiales, una epidemia de influenza y, por supuesto, la propia Depresión. Hace sesenta años, el fantasma de la guerra atómica también se veía demasiado real.
La gente hoy no necesita que le recuerden cuán rápida y profundamente pueden caer los mercados de acciones. Después de la crisis financiera de 2008, las acciones estadounidenses experimentaron una baja superior al 50 %. Los mercados de renta variable en algunos otros países cayeron considerablemente más: el de Islandia, por ejemplo, se desplomó más del 90 %. No sorprende entonces que cuando la reciente baja del mercado llegó al 20 %, muchos se preguntaron cuánto peor podía ser y si los temores de una nueva recesión podrían convertirse en una profecía autocumplida.
La idea es que los inversores se preocupan tanto por una recesión y las acciones sufren caídas tan pronunciadas que el sentimiento bajista incide sobre la economía real a través de una gran reducción del gasto, que genera la caída temida. Pueden tener razón, incluso si los mercados sobreestiman su propia influencia sobre la economía real.
Por otra parte, el hecho de que EE. UU. se las haya ingeniado para avanzar a pesar de las dificultades mundiales sugiere que su demanda interna es robusta, pero esto no parece impresionar a los mercados. Incluso aquellos inversores que mantienen un cauto optimismo respecto de la economía estadounidense se preocupan por la posibilidad de que la Reserva Federal de ese país considere que el crecimiento es motivo para continuar aumentando las tasas de interés y que eso genere enormes problemas para las economías emergentes.
Hay otras explicaciones para la volatilidad además del miedo, por supuesto. La más simple es que realmente estamos mal. Tal vez los riesgos individuales no sean del mismo orden de magnitud que en la década de 1950, pero su cantidad es mayor y los mercados partieron de una situación mucho más inflada.
Además, la globalización financiera ha profundizado fuertemente las interrelaciones, magnificando la transmisión de los shocks. Existen grandes bolsones de fragilidad y debilidad en los mercados mundiales de deuda, donde la actual expansión monetaria oculta problemas profundamente arraigados bajo la superficie. Hay quienes señalan la falta de liquidez en los mercados líderes como causa de las impresionantes fluctuaciones de precios; en un mercado poco activo, un pequeño cambio en la demanda o la oferta a veces requiere un gran desplazamiento de los precios para recuperar el equilibrio.
La explicación más convincente, sin embargo, continúa siendo el temor de los mercados a que cuando los riesgos externos finalmente aparezcan, los políticos y los responsables de las políticas no serán capaces de solucionarlos eficazmente. De todas las debilidades reveladas por la crisis financiera, la parálisis política ha sido la más profunda.
Hay quienes dicen que los gobiernos no actuaron lo suficiente para alimentar la demanda. Aunque eso es cierto, no es el único componente de esta historia. El mayor problema que aqueja hoy al mundo es el abyecto fracaso de la mayoría de los países para implementar reformas estructurales. Con el crecimiento de la productividad atascado a baja velocidad al menos temporalmente y la disminución de la población mundial en el largo plazo, la verdadera restricción para las economías avanzadas es el lado de la oferta, no la falta de demanda.
En el largo plazo, son los factores de la oferta los que determinan el crecimiento de un país, y si los países no son capaces de implementar profundas reformas estructurales después de una crisis, resulta difícil ver cuál será la solución. Manejar el gobierno como un reality show, siempre pendientes de los índices de audiencia, no logrará resultados.
Traducción al español por Leopoldo Gurman.
https://www.project-syndicate.org/commentary/fear-and-market-volatility-by-kenneth-rogoff-2016-03/spanish
↧
↧
El BCE excluye a Cataluña de su ayuda por su insolvencia
El BCE excluye a Cataluña de su ayuda por su insolvencia
La deuda de la Generalitat queda fuera de la lista de compra de bonos por falta de solvencia
El Banco Central Europeo (BCE) excluye a los bonos de la Generalitat de Cataluña de su programa de compra de activos financieros para estimular la economía europea.
En la gigantesca lista actualizada de bonos de toda Europa que está dispuesto a comprar a la que ha tenido acceso EL MUNDO, Cataluña no figura y se ha convertido en la única comunidad autónoma española sin derecho a colocar su deuda a la autoridad de Fráncfort.
La razón, según las fuentes consultadas, es que los bonos de la Generalitat no reúne los requisitos mínimos de calificación de solvencia para que puedan ser adquiridos. Las reglas del BCE le impiden invertir en bonos de emisores que tengan una calificación generalizada de bono basura, salvo que, como es el caso de Grecia, está sujeta a un programa derescate financiero con condiciones.
La institución europea ha sido flexible y permite incorporar en su compras a comunidades como la valenciana o la andaluza, también suspendidas parcialmente por alguna de las tres principales agencias de rating, pero no aCataluña, porque su suspenso es unánime.
El presidente del BCE, Mario Draghi, ha puesto en marcha un programa de compra de bonos de administraciones regionales y de empresas europeas para fomentar el crecimiento económico y en la última relación actualizada aparecen también emisiones de otras comunidades como Madrid, Baleares o Murcia, pero ninguna catalana. Un portavoz del BCE declinó hacer comentarios sobre la elegibilidad de Cataluña, aunque fuentes conocedoras de la operativa del banco confirman que no "es elegible por un problema de rating".
Declaración de ruptura
El departamento de Economía de la Generalitat, que dirige Oriol Junqueras,reconoce en su página web que se encuentra en situación de bono basura en las tres principales agencias de referencia para el BCE desde el pasado noviembre. Precisamente entonces, dos días después de que el Parlament aprobara su declaración de ruptura con el Estado, perdió su última bala para ser elegible en los programas del BCE.
La agencia Fitch aún la mantenía con calificación de BBB-, lo que implica un aprobado raspado, pero por encima del temible bono basura. Es justamente la misma agencia que ha salvado a la Comunidad Valenciana para poder ser elegible para el BCE.
Sin embargo, el 11 de noviembre del pasado año, Fitch anunció que la bajaba a BB, por debajo del llamado "grado de inversión", como ya habían hecho Moody's y Standard & Poor's. Fitch explicó su decisión por "la resolución aprobada el pasado nueve de noviembre para iniciar formalmente el proceso de independencia", porque, a su juicio, ponía más en duda el decisivo respaldo financiero del Estado a sus cuentas.
Actualmente la deuda de la Generalitat está en Ba2 en Moodys y en B+ en Standard & Poor's. Esta última la equipara a países como Kenia o Nigeria en calificación de solvencia. Su perspectiva es, además, "negativa" en las tres agencias.
Fondo de Liquidez Autonómica
En el Ministerio de Economía señalan que, en todo caso, no tendrá efectos prácticos para la financiación de la Generalitat catalana, porque seguirá contando con el oxígeno del Fondo de Liquidez Autonómica (FLA) a través de préstamos a tipo cercano a cero. Lo que sí preocupó al Ministerio el pasado mes es que la agencia Standard & Poor's estaba dispuesto a ir más lejos que nunca en el suspenso y situar a Cataluña en "impago selectivo", porque no solo hundía a la Generalitat, sino que debilitaba la imagen general de solvencia de España. Finalmente, el Gobierno central garantizó mediante el FLA que la Generalitat atendería todos sus vencimientos.
En cuanto a las empresas españolas han resultado hasta ahora elegibles algunas con sede en Cataluña como Abertis, Gas Natural y Cellnex Telecom. Repsol - a través de su filial holandesa- Iberdrola o Telefónica también son elegibles.Ferrovial es la única constructora
↧
Cataluña, atada a España
Seguro que si Mario Draghi cierra los ojos y piensa en sí mismo, se observa como un helicóptero. Porque eso es lo que es, una aeronave de vuelo bajo, que no para de lanzar dinero. La velocidad de sus aspas le permite esparcirlo, dispersarlo. Todo le vale, con tal de que el que lo reciba sea capaz de devolvérselo. Ni siquiera es exigente al preguntar por la solvencia, vale con que alguien autorizado, una agencia de rating, una sola, afirme que el emisor del bono no es un agujero negro financiero. Por ello, se puede afirmar que al BCE le valen prácticamente todos los títulos emitidos en Europa por una Administración pública que tenga una entidad superior a un ayuntamiento. Incluso los bonos griegos le valen, aunque en honor a la verdad hay que decir que no son mucho más seguros que los catalanes, simplemente cuentan con un apoyo de país rescatado que no tiene Cataluña. Y es lógico, se supone, que a una autonomía la rescate su Estado y no Bruselas. Esto es lo que está ocurriendo.
El Fondo de Liquidez Autonómico, que proporciona dinero gratis a la Generalitat, es un rescate en toda regla, pero sin Troika. ¿Que lo niegan? Todo es posible. Lo que no es factible, hoy por hoy, es que la Generalitat provoque la desconexión con España. Ni aun queriendo la sociedad española, podrían. Hay que decirlo con la voz muy alta, en el momento en que la actual Cataluña pasase un segundo de su vida fuera del paraguas financiero de España, quebraría. Tienen nula capacidad para financiarse en los mercados financieros. Apenas existen inversores institucionales que adquieran bonos basura, sea cual sea su rentabilidad. Y no lo hacen por dos motivos, el primero y más evidente, el riesgo de quiebra, y el segundo y menos conocido, porque esos bonos no se pueden utilizar en las operaciones de liquidez. Cuando una entidad acude al Banco Central Europeo a obtener liquidez, debe aportar lo que se denomina un colateral, es decir, dejar siempre en prenda unos títulos de deuda con un valor ligeramente superior a la cantidad que han solicitado. Siempre y cuando, claro está, que esos títulos o activos financieros sean reconocidos por el BCE. Bien, pues esa característica ya no la cubre la deuda pública catalana. Por tanto, no solo pierde el cariño del Banco Central, sino también el de todas las entidades que operan con él, que es tanto como decir que se queda totalmente fuera del sistema bancario europeo.
Desde luego, si Cataluña desea avanzar en una hipotética independencia, lo primero que tiene que hacer es dedicar menos tiempo a pensar cómo provocar al Tribunal Constitucional y más en diseñar planes de ajuste que le den una lógica suficiencia financiera a sus cuentas públicas. Si estuviéramos en Galicia, afirmaría que la hoja de ruta del independentismo ha hecho parada y fonda en la mesa del conselleiro de Facenda.
http://www.lavozdegalicia.es/noticia/opinion/2016/04/07/cataluna-atada-espana/0003_201604G7P16996.htm
Junqueras se planta ante Hacienda y se niega a cerrar hospitales y colegios
El vicepresidente catalán, Oriol Junqueras, ha afirmado hoy que la exigencia de Hacienda para prever una retención de crédito para cumplir con el objetivo de déficit de 2015 "es inaplicable" y ha pedido que "aclare" y "concrete" la cifra, al tiempo que se ha negado a cerrar hospitales y colegios.
Según ha indicado el también conseller de Economía en rueda de prensa, la Generalitat mantiene contactos "políticos" y "técnicos" desde primera hora de hoy con el ministerio para que precise, tanto la cifra que exige al gobierno catalán que aplique como retención, como también los recortes en servicios básicos que propone, ya que lo que no hará este último es "cerrar hospitales o escuelas".
"No tiene sentido que Cataluña, que tiene el PIB más alto y que dedica más porcentaje a servicios sociales, al final sus partidas (presupuestarias) sean insuficientes y que el ministerio aún quiera imponer más recortes", porque "esto es una discriminación flagrante", ha subrayado Junqueras.
Junqueras, que se ha reunido durante una media hora con el presidente de la Generalitat, Carles Puigdemont, antes de la rueda de prensa, ha señalado que en la misma han analizado el contenido de la carta enviada por el ministro de Hacienda, Cristóbal Montoro, a la Generalitat.
En esta carta, Montoro advierte a la Generalitat que aplicará "medidas coercitivas" si no cumple el objetivo del déficit de 2015 y le da 15 días para que efectúe una "retención" de la disponibilidad del crédito con el objetivo de cumplir con el mismo, ya que cerró el ejercicio con un 2,7 % de déficit, mientras que el objetivo marcado era del 0,7 %.
Según Junqueras, "entendemos que este tipo carta es similar a la que han recibido otras comunidades autónomas", y ha considerado "evidente" que si el Gobierno del Estado "cumpliera con sus obligaciones legales con respecto a Cataluña, ésta no tendría ninguna dificultad en cumplir las limitaciones del déficit".
Ha subrayado, en este punto, que "sólo con que el Gobierno cumpliera el déficit previsto en la Ley de Sostenibilidad Presupuestaria, o nos pagara lo que prevé la disposición adicional tercera del Estatut o el Impuesto de Depósitos Bancarios, entonces la Generalitat ya podría cumplir con sus obligaciones".
El vicepresidente y conseller de Economía ha lamentado que "una vez más el total del Presupuesto de la Generalitat y de cualquier comunidad autónoma lo decida el Ministerio de Hacienda, y que encima ahora intente decidir la distribución de este total, con lo cual no respeta las competencias que tiene la Generalitat".
Junqueras ha calificado de "arbitrariedad" la actitud del Ministerio de Hacienda y ya ha anticipado que "no aplicaremos ningún recorte añadido a las políticas sociales" más allá de los ya aplicados.
"No es casual que el Ministerio envíe la carta el mismo día en que el Tribunal Supremo comunica que no tenía razón en el reparto del déficit de 2013 que impuso a las comunidades autónomas", ha interpretado Junqueras, que ha añadido que "estamos ante un ministerio que incumple a ojos de todo el mundo, y así lo indican declaraciones que están haciendo consejeros de Economía de comunidades gobernadas por el PP".
"No cumple su techo de déficit y lo que hace es centrifugar hacia hacia las comunidades autónomas el déficit que incumple él mismo", ha reprochado el conseller de Economía, al tiempo que ha señalado que lo que no hará la Generalitat es obligar a los catalanes "a tener que pagar una factura adicional que recorte más servicios sociales".
"No cerraremos hospitales, ni escuelas, por mucho que el ministerio intente traspasar su responsabilidad a las comunidades autónomas", ha sentenciado Junqueras. EFECOM
http://www.invertia.com/noticias/junqueras-planta-hacienda-niega-cerrar-hospitales-colegios-3114008.htm
Hacienda interviene a Aragón y Extremadura por su morosidad
Hacienda comunicó oficialmente el viernes a Aragón y Extremadura que iniciará los trámites para retener fondos del sistema de financiación después duplicarán reiteradamente el límite de 30 días para pagar a proveedores. La decisión supone la medida más drástica adoptada hasta la fecha e implica en la práctica intervenir estas comunidades. Además, el Gobierno lanzó advertencias también a Valencia, Baleares, Cataluña o Madrid.
El Gobierno central ha puesto en marcha por primera vez el proceso para intervenir una comunidad autónoma. Las víctimas son Extremadura y Aragón, que llevan más de un año registrando períodos medios de pago superiores a los 60 días, lo que supone duplicar el límite que contempla la legislación. Hacienda lanzó diversas alertas en marzo y septiembre de 2015 instando a la adopción de medidas preventivas que no han impedido que el plazo de pago se mantuviera por encima de los 60 días. En este contexto, el Ministerio de Hacienda envió el viernes una carta a los consejeros de Hacienda de Extremadura y Aragón para comunicarles que, en cumplimiento de la Ley de Estabilidad Presupuestaria, Hacienda retendrá parte de los recursos del sistema de financiación para pagar directamente a sus proveedores. Es la primavera vez que se adopta esta medida.
Hacienda también comunicó el viernes a Andalucía, Cataluña, Madrid, Murcia, Castilla y León, Cantabria, Galicia y Asturias que los últimos datos de marzo reflejan que su periodo medio de pago supera el límite de los 30 días. Insto a estas autonomías a actualizar su plan de tesorería y adoptar medidas de “reducción de gastos o incremento de ingresos” para acortar su plazo de pago. Fuentes autonómicas mostraron su sorpresa por las advertencias de Montoro porque los períodos se están acortando y la mayoría de las comunidades apercibidas solo supera ligeramente el límite de los 30 días.
En una situación más grave se encuentran Valencia y Baleares, que han sido apercibidas por duplicar el período medio de pago y, en caso de no revertir la situación, correrán la misma suerte que Extremadura y Aragón.
A partir de ahora, Hacienda solicitará información a la intervención general de las comunidades intervenidas para determinar qué parte de la deuda comercial se pagará con cargo a los recursos del sistema de financiación autonómica. Posteriormente, el departamento de Cristóbal Montorocomunicará a Extremadura y Aragón la cuantía que les retendrá mensualmente. Esta intervención durará hasta que las comunidades cumplan el período medio de pago.
Las cartas que ha remitido Hacienda a las comunidades se han publicado en la página web y fuentes autonómicas aseguran que Montoro pretende “estigmatizar” a las autonomías. El ministro de Hacienda ya culpabilizó a las comunidades autónomas del incumplimiento del objetivo de déficit de 2015, cuando España registró un desfase del 5,16% del PIB frente al objetivo del 4,2%. El mismo día que Montoro anunció los datos de cierre de las cuentas públicas, comunicó que enviará una carta a las comunidades incumplidoras -todas menos Galicia, Canarias y País Vasco- para exigir que adopten un acuerdo de no disponibilidad del gasto público. Se trata de una de las medidas que contempla la Ley de Estabilidad Presupuestaria y que obliga a las autonomías a cumplir la orden de Hacienda en un plazo de 15 días.
Todas las decisiones anunciadas por Hacienda para corregir las cuentas autonómicas se producen después de que la Comisión Europea exigiera el estricto cumplimiento de la Ley de Estabilidad Presupuestaria para reducir el déficit público autonómico. Más allá del acuerdo de no disponibilidad, el Gobierno también acordó reforzar las condiciones para acceder a los recursos del FLA. A partir de ahora, se exigirá una supervisión continua del gasto farmacéutico y sanitario o que las comunidades se adhieran al portal de entrada de facturas electrónicas del Estado. Además, el interventor general remitirá un informe mensual sobre el cumplimiento del objetivo de deuda, déficit y de la regla de gasto.
El incumplimiento del déficit público puede llevar, incluso, a que Hacienda aplique sanciones. Sin embargo, ello requiere que se adopten una serie de procedimientos que no son automáticas. Es decir, será el próximo Gobierno quien decida si se cumplen la condiciones para sancionar a una comunidad.
http://cincodias.com/cincodias/2016/04/05/economia/1459855282_402630.html
↧
Paraisos fiscales y sus piratas, bucaneros y otras hierbas
"La costumbre de utilizar prácticas para disfrazar los ingresos procedentes de actividades ilícitas se remonta a la Edad Media cuando la usura fue declarada delito. Mercaderes y prestamistas burlaban las leyes y la encubrían mediante ingeniosos mecanismos. Fue en ese momento, cuando los piratas se transformaron en pioneros en la práctica del lavado de oro obtenido en los ataques a las naves comerciales europeas que surcaban el Atlántico entre los siglos xvi y xviii. A la piratería clásica se añadieron las prácticas de los bucaneros y filibusteros ayudados encubiertamente por determinados gobiernos europeos. El caso más famoso es el del pirata inglés Francis Drake, que fue armado caballero en su nave por la reina Isabel I de Inglaterra, en recompensa por sus exitosos asaltos a puertos y barcos españoles. En 1612, Inglaterra ofreció a los piratas que abandonaran su profesión un perdón incondicional y el derecho a conservar el fruto de sus felonías. Una gran parte de las riquezas acumuladas por los corsarios y piratas fueron resguardadas por los herederos de la tradición templar y por los banqueros de la época. Así surgieron los refugios financieros, versión moderna de aquellas antiguas guaridas. Con el poderío económico y militar de los piratas y corsarios, las poblaciones europeas y americanas llegaron a creer que tanto el comercio como las finanzas dependían enteramente de ellos. Los gobernantes de la época reconocieron que los tratados y leyes en vigor eran insuficientes en la lucha contra los piratas y convocaron a reconocidos juristas como Hugo Grotius y Francisco de Vittoria para buscar una solución de carácter jurídico" wikihttps://es.m.wikipedia.org/wiki/Lavado_de_dinero ....:
¿ porque sera que hace decadas que no se hace una legislación adecuada ? Recuerda el caso de la derogación ley Stegall Glass ? Quienes son los que deben hacer las leyes ? Parece clara la responsabilidad...por mas infierno fiscal de algún pais..."En el fondo los paraísos fiscales son la versión moderna de las islas del Caribe que se constituyeron en santuarios de piratas y filibusteros" G.H.
http://www.gurusblog.com/archives/por-que-no-se-acaba-con-los-paraisos-fiscales/12/12/2015/
Más de once millones de documentos exponen los negocios offshore de 12 líderes mundiales y dan detalles sobre los negocios financieros secretos de 128 políticos y cargos públicos alrededor del mundo.
Una macrofiltración destapa los paraísos fiscales de cargos públicos y famosos de todo el mundo
laSEXTA desvela que Pilar de Borbón, Macri, Putin, Messi y Almodóvar, entre otros, evadieron al fisco a través de entidades 'offshore'
La documentación, conseguida por el Consorcio Internacional de Periodistas de Investigación, procede del despacho de abogados panameño Mossack Fonseca
http://www.elperiodico.com/es/noticias/internacional/una-macrofiltracion-destapa-los-paraisos-fiscales-cargos-publicos-famosos-todo-mundo-5024438
El chantaje de Panamá por las obras del Canal
¿Cómo es posible que lo que para la OCDE es «el último gran bastión» de la opacidad sea respetable para España desde 2011?
Para asombro de la organización, el Gobierno socialista español de la época sacó a Panamá de su lista negra de paraísos fiscales y aceptó un acuerdo de doble imposición como si fuera un país serio. Ocho estados de la UE aún no lo ven así de respetable.El origen es un chantaje que comenzó años antes. El entonces presidente de Panamá, Martín Torrijos, planteó el problema en julio de 2007 al entonces jefe del Gobierno español, José Luis Rodríguez Zapatero. Si las constructoras españolas querían optar a un contrato de más de 2.000 millones para la ampliación del Canal de Panamá, su país no podía seguir siendo considerado por la Hacienda española como paraíso fiscal
http://www.elmundo.es/espana/2016/04/05/5702c0e5ca474104598b4592.html
V.Damm-Familia Carceller ,caso Petrus,bancos andorranos,caso Mora......
derecha,izquierda,artistas,politicos, millones de papeles, miles de empresas, y solo hablamos de un pais Panama (obras canal, y deja de ser un paraiso fiscal...). Uhmmmm...será cuestión de elegir otra cerveza...no se si preguntar a Luis Tosar...."no amigo,no todas las cervezas son iguales"
http://www.economiadigital.es/es/notices/2016/04/luis-tosar-ensena-a-un-camarero-insensato-por-que-no-todas-las-cervezas-son-iguales-82885.php
Sobre el tema del miedo,privacidad y seguridad....muy debatible
¿no lo es?....no parece ser lo que demuestran los papeles....
Según Oxfam, “el entramado mundial de paraísos fiscales permite que una minoría privilegiada oculte en ellos 7,6 billones de dólares (unos 7 billones de euros)”.
España no escapa a esta cuestión. “La inversión desde España hacia paraísos fiscales creció un 2000% en 2014”, apuntan desde Oxfam, que cifran en 2.073 millones la inversión en paraísos fiscales desde el ámbito nacional en 2014. Destaca por encima de todos las Islas Caimán, a la que se destinan 64 veces más inversión desde España que a Alemania.
http://www.lavanguardia.com/economia/20160119/301511960157/espana-paraisos-fiscales-oxfam.html
http://www.oxfamintermon.org/es/que-hacemos/proyectos/desigualdad/ilusion-fiscal
No sé si ha notado usted que cuando los políticos tratan de resolver un problema, esa misma solución multiplica otros problemas. También esto prosigue todo el tiempo (J. Krishnamurti).
http://www.oxfamintermon.org/es/que-hacemos/proyectos/desigualdad/ilusion-fiscal
No sé si ha notado usted que cuando los políticos tratan de resolver un problema, esa misma solución multiplica otros problemas. También esto prosigue todo el tiempo (J. Krishnamurti).
↧