Crecimiento y cambio tecnológico

viernes, 5 de julio de 2019
Publicado en la Revista Fasecolda No. 173, 2019

Uno de los anhelos plasmados en numerosos planes de desarrollo de Colombia es lograr una tasa de crecimiento superior al 4.0% de forma estable. Se considera que ella es una condición para lograr la convergencia hacia los niveles de ingresos de las economías desarrolladas.

No obstante, esa sigue siendo una de las grandes frustraciones del país. Los indicadores muestran que mantenemos un estancamiento de largo plazo sin que haya una tendencia definida a ese objetivo; recientemente mejoramos un poco como consecuencia del auge de los productos básicos y del estancamiento del crecimiento de Estados Unidos (“gran recesión”), pero el indicador de ingreso relativo tiende a retornar a su rango típico (gráfico 1).


También los planes de desarrollo plantean la necesidad de aumentar la productividad de la economía; no obstante, la productividad total de los factores se mantiene estancada desde 1975 (gráfico 2). De todos modos, en el Plan de Desarrollo del actual gobierno se insiste en que “la productividad es el motor del crecimiento sostenido en la economía global”. Este es un elemento complementario del anhelado crecimiento, pues desde hace varias décadas, la teoría económica postuló su relación.


Uno de los problemas radica en que, conceptualmente, no es muy claro qué determina las variaciones de la productividad: igual puede ser la inversión en activos físicos que la educación o el cambio tecnológico. No hace mucho, Paul Krugman se cuestionaba, con relación a Estados Unidos: “No sabemos realmente por qué el crecimiento de la productividad se redujo hasta casi detenerse. Ello hace difícil responder otra pregunta: ¿qué podemos hacer para que aumente?”.

El cambio tecnológico es una variable que se considera determinante de la productividad y de ahí la recomendación de crecer el gasto en I+D y crear sistemas de innovación. De nuevo, Colombia no es la excepción y el proyecto del plan de desarrollo en curso así lo expresa: el país “debe fortalecer la capacidad técnica de las empresas no solo para buscar y seleccionar tecnología, sino también para transferirla y absorberla, así como generar y adoptar innovación. Para ello, el conocimiento producido en las universidades, centros de investigación y de desarrollo tecnológico y las unidades de Investigación y Desarrollo (I+D) es de suma importancia”.

También llevamos décadas reconociendo la importancia de la I+D como factor potencial de dinamización de la productividad y lamentando el bajísimo gasto como porcentaje del PIB (gráfico 3). Recordaba recientemente Rosario Córdoba (“La calentura no está en las sábanas”) que desde los 90 aspiramos a una meta del 1% del PIB y esa sigue siendo una quimera.


Quizás sea hora de replantear la forma de abordar el problema. Aun cuando se suele mencionar la contribución del Gobierno, implícitamente deseamos que sea el sector privado el que realice el gasto en I+D, bajo el supuesto de que son finalmente las empresas las que producen los bienes y servicios y las que enfrentan a los competidores de otros países que son más competitivos.

Si bien eso es cierto, tal vez estamos minimizando el rol que debe jugar el Estado en este proceso. Esto nos lleva a la discusión sobre el papel de la política industrial. La idea dominante es la de minimizar la intervención del gobierno bajo la hipótesis de que no tiene la capacidad de “seleccionar ganadores” y que su intromisión no hace más que distorsionar el actuar de la “mano invisible” y generar rentas a grupos privilegiados de la sociedad. Lo máximo que llegan a admitir algunas vertientes del pensamiento económico es su participación para corregir “fallas del mercado”, entendiendo por ellas ciertos campos en los que el sector privado no logra ser eficiente o simplemente no tiene interés; ejemplos de ello son el acceso de las pymes al crédito, la provisión de la salud y el establecimiento de sistemas de ahorro pensional.

No obstante, diversas investigaciones recientes han mostrado que, en materia de innovación, de cambio tecnológico y de I+D, el Estado tiene un papel mucho más importante que el de corrector de “fallas de mercado” y que, en la práctica, en las economías desarrolladas y algunas de las emergentes más dinámicas él ha jugado un rol protagónico.

En el libro El Estado emprendedor (2014), Mariana Mazzucato demuestra cómo los gobiernos de Estados Unidos y otras economías desarrolladas, así como China y algunas economías emergentes, han liderado el cambio tecnológico. La revolución tecnológica que vive el mundo no es producto del azar, ni de emprendedores geniales que de forma aislada tuvieron la inspiración de producir inventos revolucionarios.

Un estudio de Breakthrough Institute (“Where Technologies Come From”) destaca los “milagros” que la tecnología nos brinda hoy, como usar el GPS del celular para encontrar la ruta óptima que nos lleve a una dirección,  tener conversaciones gratuitas por Skype con personas que están en cualquier lugar del mundo, o acceder a nuevos tratamientos contra el cáncer. Luego, cuando nos preguntamos de dónde vienen esos “milagros”, se tiende a asociarlos con las prestigiosas empresas que los producen. Pero, como resalta Breakthrough Institute, casi nadie sabe que en realidad detrás de ellos está el papel activo del gobierno de Estados Unidos en el desarrollo de la tecnología y la innovación.

En el caso de Apple, Mazzucato destaca que productos como el iPod, el iPhone y el iPad incorporan un grupo de tecnologías que surgieron por procesos de I+D pagados por el Gobierno de ese país: Internet, GPS, redes inalámbricas, pantallas táctiles, Siri, etc. (gráfico 4). Esto la lleva a concluir que “el éxito de Apple no depende de su capacidad para crear nuevas tecnologías, sino de sus capacidades organizativas para integrar, comercializar y vender estas tecnologías que ya están disponibles” (página 315).


Señala Mazzucato que la etapa de desarrollo de la ciencia básica involucra la incertidumbre knightiana, es decir aquella en la que el comportamiento de una variable es impredecible y de la cual no es posible calcular una probabilidad de éxito o de fracaso. Ante ella, no hay capital privado ni fondo de capital de riesgo que se atreva a invertir. Es el Gobierno con programas específicos de investigación para atender, por ejemplo, objetivos de “seguridad nacional”, el que desarrolla conocimientos o contrata científicos, universidades y empresas para alcanzar nuevas tecnologías. Una vez que ellas se han producido, por diversos canales van a las empresas que las masifican; es el momento en el que aparecen compañías como Apple o Microsoft y también los fondos de capital de riesgo. Ese fue el proceso mediante el cual se gestó lo que hoy conocemos como la revolución del Internet y de las tecnologías de la información; también es el que ha permitido el desarrollo de productos farmacéuticos para el tratamiento de múltiples enfermedades en las décadas recientes y es el que está propiciando la nueva revolución verde en las economías desarrolladas y en países como China.

En el caso de la revolución verde, en Estados Unidos se creó la Advanced Research Projects Agency – Energy (ARPA-E), mediante la America Competes Act de 2007. En su página web, ARPA-E indica que su labor es “promover tecnologías energéticas de alto potencial y alto impacto, pero que son demasiado tempranas para la inversión del sector privado”. Esto significa que son tecnologías en la fase de incertidumbre knightiana y que, por lo tanto, el sector privado no está en capacidad de asumir los riesgos.

¿Qué debería aprender Colombia de estas experiencias? En primer lugar, que la incertidumbre knightiana justifica la intervención del Estado como líder en el desarrollo de conocimientos y tecnología. En segundo lugar, que su trabajo con científicos, centros de investigación, universidades y empresas genera ecosistemas de innovación. En tercer lugar, que los incentivos fiscales son un instrumento débil para inducir el gasto en I+D; en lugar de exenciones esos recursos deben fortalecer el presupuesto de I+D. Por último, que se requieren instituciones similares a las agencias de investigación en Estados Unidos y no ministerios, ni departamentos administrativos, ni órganos colegiados con pesadas burocracias para orientar la I+D. Con esas lecciones podría alimentarse el plan de desarrollo y redimensionarse la innovación en el país.

Un millón de colados

viernes, 21 de junio de 2019
Publicado en Portafolio, el viernes 21 de junio de 2019

Con ese titular solo me estoy anticipando unos pocos años a las noticias de Bogotá. ¡Qué alarmista!, dirán algunos. Pero hace cuatro años escribí una columna (“Transmilenio: Costos de la inacción”; Portafolio, 17 de julio de 2015) preocupado por la pasividad gubernamental ante los 60 mil colados diarios en Transmilenio; ahora se cuelan 384 mil personas cada día, ocasionando pérdidas por más de $222 mil millones anuales, según un estudio de la Universidad Nacional.

Con base en la teoría de los vidrios rotos es fácil anticipar que los evasores seguirán aumentando, igual que las ventas ambulantes y la delincuencia en las estaciones. Si se mantiene la tasa media anual de crecimiento de los colados del 59% (aun cuando lo más razonable sería suponer un crecimiento exponencial), a finales de 2021 se alcanzará el millón. Lógicamente, las pérdidas serán más cuantiosas y pueden afectar la sostenibilidad de Transmilenio; ya con el monto actual se habrían financiado 200 buses por año, mitigando los problemas de obsolescencia, o el arreglo de miles de puertas de las estaciones que no han sido reparadas e incentivan las infracciones.

Como en Colombia creemos que los problemas se solucionan expidiendo leyes, en el nuevo Código de Policía se establecieron multas para los colados y los vendedores ambulantes en Transmilenio. Cuando su observancia queda en manos de imberbes policías bachilleres y de empleados de vigilancia de las estaciones, las probabilidades de reducir las contravenciones son remotas; vemos cómo ellos generalmente prefieren dar la espalda a los infractores, porque temen que detenerlos o llamarles la atención pueda repercutir en agresiones como las que le han costado lesiones e incluso la vida a varios de sus compañeros.

Vale la pena recordar el ejemplo del metro de Nueva York a finales de los ochenta y comienzos de los noventa porque dejó lecciones muy pertinentes para Bogotá, que pueden evitar llegar al millón. En esa ciudad las personas se empezaron a colar, hasta alcanzar un récord de 232 mil por día, lo que representó el 6,9% de evasión en 1990; por contraste, según la Universidad Nacional, la evasión bogotana es del 15,4%. Lo cierto es que, ante la pasividad de las autoridades, paralelamente creció la delincuencia y el daño a los vagones.

Desde 1989 las autoridades reaccionaron. Conformaron un grupo de lucha contra la evasión de tarifas (Fare Abuse Task Force - FATF), seleccionaron como objetivo las 305 estaciones de mayores problemas, y se establecieron unidades móviles de reseñas judiciales para agilizar el procesamiento de citaciones y multas. Dispusieron de grupos de policías uniformados y encubiertos y “los arrestos por colarse aumentaron de 10.268 en 1990 a 41.446 en 1994” (Alla Reddy y otros (2011) “Measuring and Controlling Subway Fare Evasion”). Aun así, la evasión solo empezó a caer continuamente desde 1992 y en 1994 llegó a 2,7%.

Mientras en Bogotá se adopta un programa a gran escala para combatir a los colados, vendedores ambulantes y delincuentes del Transmilenio, sería útil que las autoridades publiquen semanalmente el número de comparendos impuestos a los infractores y los recaudos efectivos logrados con ellos; muy probablemente tendríamos sorpresas con los irrisorios porcentajes de sancionados y de pagos efectivos de las multas. Pero alguien tendría que empezar a dar explicaciones por esos resultados.

Menos regulación

viernes, 24 de mayo de 2019
Publicado en Portafolio el viernes 24 de mayo de 2019

Aun cuando los últimos gobiernos han implementado programas de reducción de trámites, la carga regulatoria sigue siendo un lastre para la competitividad de las empresas. Eso ocurre porque mientras se hace el esfuerzo de eliminar algunas normas, no hay ningún control en la expedición de otras nuevas.

Entre 2000 y 2016 el Congreso expidió en promedio 1,4 leyes por semana y, según el DNP, la rama ejecutiva emitió 15,4 normas por día (2,8 de ellas son decretos); esta es una avalancha prácticamente imposible de asimilar por los ciudadanos y las empresas que deben cumplir con ellas.

Esa avalancha es uno de los factores que afectan negativamente la eficiencia económica. Según el último Reporte de Competitividad Global del Foro Económico Mundial, en la variable “carga de la regulación gubernamental”, Colombia ocupó el puesto 123 entre 140 países.

El tema de la regulación excesiva es una preocupación de muchos gobiernos, lo que ha conducido a políticas que buscan su control, a la vez que mejoran su calidad y reducen su costo económico y social. En esta materia el Reino Unido es un ejemplo interesante; en 2005 estableció The Better Regulation Executive (BRE), que hoy es parte del British Department for Business, Energy and Industrial Strategy, con el propósito de liderar una mejor política regulatoria en todo el gobierno británico, buscando un equilibrio entre las necesidades de control y regulación y los costos para la sociedad y las empresas.

Las funciones de la BRE implican, entre otras, la evaluación del impacto de cada regulación, revisar su efectividad, reducir la regulación a las pequeñas empresas, brindar asesoría a las Better Regulation Unit que tiene cada departamento gubernamental y controlar el número de nuevas normas.

Para esta última función, en enero de 2011 el Reino Unido introdujo la regla One-In One-Out, y en enero de 2013 dio paso a la nueva regla One-In Two-Out. Con ella se planteó que “cualquier medida de regulación o desregulación que resulte en un costo neto directo para las empresas debe ser compensada por medidas que desregulen y les proporcionen ahorros de al menos el doble de esa cantidad” (Department for Business, Innovation and Skills (2015). “Better Regulation Framework Manual. Practical Guidance for UK Government Officials”).

Según los informes del Comité de Política Regulatoria, el ahorro neto para las empresas entre enero de 2011 y julio de 2015 fue cercano a los 2.2 miles de millones de libras esterlinas. Es el resultado neto de la introducción de 119 normas, la salida de 214 y la expedición de 183 con costo cero para las empresas (Department for Business Innovation & Skills (2014). “Ninth Statement of New Regulations. Better Regulation Executive”).

De forma complementaria, el gobierno británico creó, como parte del Cabinet Office, el Behavioural Insights Team (BIT), con el propósito de mejorar la calidad de las políticas públicas, incluyendo la regulación, mediante la aplicación de la economía conductual. Entre sus asesores están Richard Thaler, premio nobel de economía, y Cass Sunstein, su coautor del libro “Un pequeño empujón”. Actualmente el BIT es una empresa independiente que asesora al gobierno británico y a otros gobiernos y empresas del mundo.

En síntesis, Colombia tiene el reto de frenar la hemorragia regulatoria, para lo cual hay muchos ejemplos de referencia.

La reforma que quiso ser estructural…

lunes, 13 de mayo de 2019
Publicado en la revista Fasecolda No. 173 - 2019

Con el trámite de la Ley de Financiamiento el país perdió otra oportunidad de avanzar en la dirección correcta para superar los problemas de las finanzas públicas.

El concepto de reforma estructural está tan trillado que ya nadie sabe a qué se refiere. En ese contexto, es útil tener como referencia una definición. En Colombia una reforma tributaria estructural debe ser aquella que supere los problemas de fondo que tienen las finanzas públicas, tanto del lado del gasto como del ingreso; ella debe brindar a los contribuyentes unas reglas de juego estables, con el fin de superar el “pico y placa tributario” (ya se da por hecho que en los años pares hay reforma).

Son numerosos los estudios técnicos que han hecho recomendaciones sobre el abanico de medidas que se deben adoptar para tal fin. Los más recientes son los dos libros que recogen las conclusiones de la Comisión de Expertos para la Equidad y la Competitividad Tributaria y de la Comisión del Gasto y la Inversión Pública. Todos estos documentos brindan al gobierno una carta de navegación para llevar a buen puerto las finanzas y recuperar el poder de la política fiscal como un instrumento de redistribución del ingreso y como política contracíclica cuando sea necesario.

Un pasito p’lante y dos para’trás

El proyecto de ley de financiamiento tal como fue presentado por el gobierno al Congreso, si bien distaba del ideal reflejado en los libros de las Comisiones, contenía elementos que permitían avanzar en la dirección correcta: reducción de las exclusiones y exenciones al IVA, ampliación de la base del impuesto de renta, reducción de las tasas corporativas y exención del IVA a las compras de bienes de capital, entre otras.

Pero los objetivos se perdieron a las primeras de cambio. Los débiles argumentos técnicos, pero poderosos desde el punto de vista político, sobre la supuesta regresividad de gravar con IVA la canasta de consumo, llevaron al partido de gobierno a unirse al coro de opositores. Por eso, muy pronto fue descartada esa modificación con la que el gobierno esperaba recaudar cerca de $7 billones. 

De ahí para adelante, los políticos se tomaron el liderazgo del proyecto de ley y aplicaron su creatividad sin fundamento técnico, para terminar aprobando una reforma que muestra “cómo no se debe legislar en materia tributaria”, según Horacio Ayala, exdirector de la DIAN. En otras esferas fue calificada como un “Frankenstein tributario” y algunos la ven como una exótica “ley de desfinanciamiento”.

Todos esos calificativos surgieron por el contenido final de la ley. De una parte, redujo la tarifa de renta corporativa tres puntos adicionales a los que preveía ya la reforma tributaria de 2016 (se calcula que cada punto reduce los ingresos en 0.8% del PIB). De otra, no solo dejó intactas las muchas exenciones y tratos preferenciales, sino que creó otras adicionales al impuesto de renta: a la economía naranja, por 7 años; al aumento en productividad del sector agropecuario, 10 años; al aprovechamiento de nuevas plantaciones forestales, hasta 2036; a la venta de energía eléctrica con fuentes alternativas (eólica, biomasa, etc.), 15 años; al transporte fluvial en embarcaciones de bajo calado, 15 años; y, además, estabilidad jurídica para las “mega-inversiones” (del orden de US$300 millones y creación de 250 empleos), con un impuesto de renta preferencial del 27%. Por último, estableció una sobretasa al impuesto de renta de las entidades financieras, sustentada mediante el curioso argumento de que es un sector al que le ha ido muy bien. 

2019: Problemas que vienen y van

La Ley de Presupuesto General de la Nación fue aprobada por un monto de $259 billones y según el propio gobierno, en sus proyecciones de ingresos hacían falta $14 billones para financiarlo; pero la Ley de Financiamiento, apenas le dará el 50%. De ahí surge la pregunta sobre cómo se van a conseguir los recursos faltantes para 2019.

Según el “Plan financiero 2018” esa porción se va a cubrir con la venta de activos públicos. Según el Conpes 3927 el gobierno es dueño o tiene participación en 109 empresas; no obstante, los procesos de privatización toman tiempo. La opción de corto plazo es vender el 8,5% de Ecopetrol, con base en la autorización de la Ley 118 de 2006; por esta vía se podrían obtener entre $9 y $10 billones. Hace unos meses el Ministro de Hacienda mencionó esa posibilidad, pero recientemente el presidente de Ecopetrol afirmó que él no ve la necesidad de esa venta y que, además, podría tomar dos años.

En ese contexto, si persiste la opinión del ministro, habría que tener en cuenta varios aspectos. El primero, que esos recursos deberían orientarse a inversión y no a gastos de funcionamiento. El segundo, que la fuerte sensibilidad de la opinión pública será aprovechada por ciertos políticos para torpedear la venta. El tercero, si la venta requiere de dos años, no sería una solución al problema de corto plazo.

Una opción es la austeridad, pero ella tiene límites. El año anterior el gobierno tuvo que congelar gastos para cumplir con el déficit previsto en la regla fiscal. En el presente, el Ministro Carrasquilla congeló $14 billones del presupuesto y está dando recursos a cuentagotas a las entidades públicas. Aun cuando en el trámite de la Ley de Presupuesto el gobierno hizo esfuerzos para no reducir la inversión, lo más probable es que se vea precisado a echar para atrás ese propósito.

Otro aspecto a tener en cuenta es que se prevé un incremento del 10,5% en los ingresos tributarios, con base en un crecimiento del PIB de 3,5%. Esta proyección es más optimista que la del sector privado, pues Fedesarrollo y Anif le apuestan al 3,3% y la media de los analistas privados al 3,0%. Además, el panorama mundial es de desaceleración, por lo que probablemente las proyecciones de Colombia se revisen a la baja en el transcurso del año, tornando irreal el incremento esperado del recaudo tributario.

Por último, los fallos a las demandas de inconstitucionalidad de la Ley de Financiamiento pueden agravar los problemas fiscales del gobierno.

2020: La espada de Damocles

Varios analistas calculan que la Ley de Financiamiento acentúa la tendencia descendente de los ingresos del Gobierno Central. Según Anif, en 2020 la Ley genera un faltante de 0,1% del PIB, que seguirá aumentando hasta el 0,5% en 2022 (cuadro 1). Para Fedesarrollo, el déficit fiscal estimado en 2020 es de -3,2% del PIB, cuando el proyectado en la regla fiscal es de -2,2%, y seguirá ampliándose hasta generar una brecha de casi dos puntos del PIB en 2022 (gráfico 1).



El interrogante es cómo se financiará el 2020. Lo más viable sería presentar una ley de presupuesto con menor gasto, es decir, con mayor austeridad. Esa sería una condición necesaria para no tener que tramitar una reforma tributaria este año y postergarla hasta el entrante.

El problema adicional es que las calificadoras están muy pendientes de lo que pasa con las finanzas públicas. Moody’s destacó la incapacidad para superar las rigideces fiscales estructurales y su preocupación porque afectan la capacidad de respuesta del gobierno a choques externos y dificultan el cumplimiento de la regla fiscal. Fitch se sumó a esta última posición y considera poco probable el cumplimiento de la meta de déficit de 2020.

No patear la pelota

Es evidente que Colombia debe solucionar pronto su problema fiscal. El margen de maniobra se cerró, está en riesgo la calificación de los bonos soberanos y ya no se puede seguir pateando la pelota hacia adelante.

El círculo vicioso en que cayó el país, de hacer reformas tributarias cada dos años sin que se logre una que sea realmente estructural, tiene graves consecuencias que es necesario poner a la vista: hay inversionistas extranjeros que prefieren no venir a un país con tan alta inestabilidad en las reglas de juego de la tributación; la política fiscal perdió su potencial redistributivo y seguimos con una de las peores distribuciones del ingreso del mundo; los subsidios están mal focalizados y perpetúan la informalidad; los impuestos territoriales siguen sin espacio para una reforma que también es urgente; y, finalmente, le seguimos dando largas a la reforma pensional, mientras el 80% de las personas en edad de jubilación no tiene acceso a una pensión.

Solo cabe esperar que la próxima reforma sí logre ser estructural.

Trump, Duque, opio y coca

viernes, 26 de abril de 2019
Publicado en Portafolio el viernes 26 de abril de 2019

Los regaños del presidente Trump al presidente Duque por el crecimiento de las “exportaciones” colombianas de cocaína a los Estados Unidos, me trajeron a la memoria el libro “Pequeñas crónicas”, del historiador italiano Carlo Cipolla

Narra Cipolla que en pleno auge del mercantilismo Gran Bretaña y los Países Bajos tenían una balanza comercial negativa con China, pues mientras esta nación les vendía sedas, porcelanas y té, no compraba mayor cosa a los europeos.

Así como Peter Navarro le dice al oído a Trump que el déficit comercial empobrece a los Estados Unidos, los políticos y la opinión pública criticaban con el mismo argumento a la Compañía Holandesa de las Indias Orientales y a la Compañía Británica de las Indias Orientales. Para solucionar el “problema”, estas compañías diseñaron un plan diabólico: comenzaron a producir opio en la India para exportarlo a China, país que ya tenía graves problemas con el consumo de ese estupefaciente.

Como China expidió un bando imperial prohibiendo la importación y el consumo de opio, las compañías holandesa y británica se hicieron a un lado oficialmente, pero siguieron manejando el negocio mediante mercaderes que eran obligados a comprarles la droga e introducirla de contrabando al mercado chino. A ellos se sumaron desde 1820 los norteamericanos traficando opio turco.

Cipolla destaca tres consecuencias de la diabólica idea: el creciente número de chinos enviciados por el consumo de opio, la rampante corrupción de burócratas amangualados con los contrabandistas y el deterioro de la balanza comercial de China.

Surgieron en China dos propuestas para afrontar el problema: Una proponía legalizar el comercio de opio y otra abogaba por apelar a la represión. Según los defensores de la primera opción, “la legalización del comercio del opio haría disminuir el precio de la droga y, por tanto, eliminaría los grandes beneficios de los traficantes; además anularía la causa de la extendida corrupción en la burocracia”.

El emperador optó por la segunda; ordenó acabar el tráfico del estupefaciente, estableció la pena de muerte al comercio y distribución del opio, se confiscaron grandes cantidades de droga y se impuso arresto domiciliario a los mercaderes extranjeros. En respuesta, las tropas inglesas desembarcaron en China en 1840 para defender los intereses de los traficantes angloamericanos, iniciando la primera guerra del opio; los chinos fueron derrotados, les impusieron el libre comercio y se reactivó el tráfico de la droga.

Con la cocaína hay una disyuntiva similar. Ante el desaforado consumo en las economías desarrolladas, las políticas de represión impuestas a los países productores fracasan. Según la Unodoc, Estados Unidos tiene el segundo nivel más alto del mundo de prevalencia en el consumo de marihuana y cocaína en la población entre 15 y 64 años (17,0% y 2,4%, respectivamente) y la tendencia es ascendente. La misma fuente muestra que las capturas de cargamentos del alcaloide son consistentemente superiores en Colombia que en Estados Unidos.

Así como los chinos hubieran podido evitar las guerras del opio legalizando su comercio, actualmente se podrían suprimir los enormes costos económicos, sociales, ambientales y de seguridad adoptando esa política para la cocaína. En lugar de andar regañando a medio mundo, Trump debería repasar la historia de la prohibición del alcohol en Estados Unidos y las bondades de su eliminación.

Maduro, ¿hasta cuándo?

viernes, 22 de marzo de 2019
Publicado en Portafolio el viernes 22 de marzo de 2019

Qué imágenes tan indignantes las de un país sin energía eléctrica por varios días, personas que recogen agua de ríos contaminados, mujeres llorando porque sus escasas reservas de alimentos se dañaron por falta de refrigeración y médicos denunciando la muerte de pacientes por el apagón en los hospitales.

En cualquier otro país esos hechos y esas imágenes hubieran propiciado una revuelta popular; pero no en Venezuela. Definitivamente los límites de resistencia de ese pueblo son sorprendentes. Lo cierto es que superado el apagón todo ha vuelto a la “normalidad” y Maduro sigue campante.

El nombramiento de Juan Guaidó como presidente interino de Venezuela y el respaldo internacional alimentaron las expectativas de un cambio de gobierno en el corto plazo. De igual forma, en el marco del Congreso Prospectivas Macroeconómicas de América Latina, realizado por Econometría Consultores en Bogotá, el análisis de la economía de Venezuela ocupó un lugar central y también se percibió la idea de una pronta caída de la dictadura de Maduro.

En ese congreso, Asdrúbal Oliveros, socio director de Ecoanalítica, señaló tres escenarios de salida para Venezuela: el primero, y más probable, un golpe militar; el segundo, una transición negociada del poder a Guaidó; y el tercero, y más improbable, una intervención externa.

En mi opinión, los escenarios están bien formulados, pero hay que adicionarle algunos aspectos para hacerlos más reales. En el tercero, no hay que olvidar que el régimen de Maduro también consiguió respaldo internacional. Cabe recordar las imágenes del canciller venezolano en una rueda de prensa en las Naciones Unidas, rodeado por cerca de 50 embajadores de naciones que apoyan al dictador; lugar destacado en ese grupo, ocupan Rusia y China.

Hay que tener en cuenta dos hechos cruciales: primero, que Estados Unidos y China están en “negociaciones” para evitar una profundización de la guerra comercial; segundo, que las relaciones de Trump y Putin se han fortalecido y se presentan ante el mundo como grandes amigos, por exóticas que luzcan esas relaciones dadas las sospechas de intervención de Rusia en las elecciones presidenciales de Estados Unidos. A esas particularidades hay que adicionar que a Colombia no le conviene para nada una confrontación armada, pues sería el país más expuesto a los ataques. En ese contexto, a lo máximo que puede llevar la situación de Venezuela es a un nuevo escenario de guerra fría, que anclaría a Maduro por buen rato.

En el caso del primer escenario, hay que tener en cuenta que la cúpula militar de Venezuela tiene el poder real, pues son quienes controlan la mayor parte de los ministerios y empresas, empezando por PDVSA; ellos están muy comprometidos en actividades ilícitas que han sustentado las medidas de Estados Unidos contra varios de ellos. Pero tal vez el elemento más determinante es que las promesas de amnistía de Guaidó a los militares sean neutralizadas por el espejo de los recientes casos de los dictadores chilenos y argentinos que fueron sometidos a sendos juicios décadas después de su involucramiento en los golpes de estado; con ese precedente es difícil que cedan.

Así es que confiar en una salida negociada luce poco realista. Solo la asfixia económica y el agotamiento de las reservas de oro podrán doblegar al dictador; el interrogante es ¿cuándo?

¿Cuántos visitantes del extranjero?

viernes, 22 de febrero de 2019
Publicado en Portafolio el viernes 22 de febrero de 2019

El MinCIT informó en enero que revisó las estadísticas de visitantes del extranjero desde 2011 con el fin de adecuarlas a las recomendaciones de la Organización Mundial de Turismo (OMT).

La revisión implicó dos decisiones: Corregir la distorsión ocasionada por la avalancha de venezolanos y eliminar la estimación de viajeros extranjeros por fronteras, que se venía haciendo desde 2011. Esta última, redujo el número de visitantes del extranjero que ingresaron a Colombia en 30% por año, en promedio. No obstante, el MinCIT no dio las explicaciones técnicas para este drástico recorte; simplemente sugirió que todos estarían clasificados como “personas que cruzan con frecuencia la frontera”. Tal decisión implica que las personas que entran por las fronteras terrestres no son visitantes extranjeros si Migración Colombia no les sella el pasaporte.

Para el caso de las “personas que cruzan con frecuencia la frontera”, la OMT recomienda que “el concepto de entorno habitual se utilice y aplique de un modo coordinado con el país que comparte la frontera”. Se debe aclarar entonces si la eliminación está vinculada a un acuerdo con los países vecinos.

Pero la OMT también reconoce que una parte importante de los visitantes entra por las fronteras terrestres. Es un hecho incontestable: los principales visitantes en numerosos destinos provienen de los países vecinos. En Chile, por ejemplo, en 2018 el 57% entró por carretera y el 69% de ellos fueron argentinos. En España, en promedio el 19% entra por la frontera con Francia.

La OMT recomienda usar encuestas para calcular el número de estos visitantes. España, que carece de puestos de control en la frontera, usa cámaras para contar vehículos y calcular un número de ocupantes; esa estimación se fortalece encuestando a pasajeros de vehículos seleccionados aleatoriamente.

La eliminación de los visitantes por fronteras tiene una implicación que pasó desapercibida. Tanto la OMT como el FMI buscan mejorar y hacer consistentes sus datos de visitantes y de flujos de gasto turístico en la balanza de pagos. En este aspecto el gobierno debe resolver un interrogante: ¿por qué el gasto por visitante en Colombia es muy superior al de Francia, Italia y España? Con la metodología anterior, en 2017 el gasto estimado por visitante a Colombia sería de US$888 y con la nueva US$1.459, mientras que el promedio de esos tres países estaría en US$802. A todas luces, carece de lógica.

Es evidente una fuerte subestimación del número de visitantes. Desde 2011 se trató de compaginar el muestreo fronterizo del Banco de la República para el cálculo de la balanza de pagos, con la estimación de un indicador de los visitantes por las fronteras y el gasto por persona. Eso no es manipulación de cifras, como lo calificó un despistado columnista; por el contrario, buscaba mayor consistencia con un criterio técnico.

Ahora que esa cifra desapareció de un plumazo, sigue la incógnita sobre el número real de visitantes y la sobrestimación de valor del consumo por visitante. Es loable el propósito de mejorar la calidad de las estadísticas del sector de turismo que gana importancia como generador de divisas. Pero hay que tener consistencia en todos los indicadores; esa es una tarea pendiente para el Dane, el Banco de la República, Migración Colombia y el MinCIT.

El trabajo en la cuarta revolución industrial

viernes, 8 de febrero de 2019
Publicado en la Revista Fasecolda No. 172, 2018

Uno de los temas de mayor debate actual es el de los probables impactos de la tecnología en el empleo. Dos estudios incitaron la discusión en los años recientes: 1. El libro de Klaus Schwab, “The Fourth Industrial Revolution”, publicado en 2016, en el que acuñó el término de la “cuarta revolución industrial”. 2. El artículo de Carl Frey y Michael Osborn (2013) “The Future of Employment. How Susceptible are Jobs to Computerisation”, en el que estimaron que el 47% de los empleos actuales de Estados Unidos están en riesgo por la automatización y la robotización de la producción.

Los solos títulos denotan la relevancia del tema, por sus enormes implicaciones económicas, políticas y sociales. En ese contexto, fue destacada la participación de Xavier Sala i Martin en la Convención Internacional de Seguros 2018, con el fin de exponer algunas de las múltiples aristas del debate. Él es un connotado economista vinculado al Foro Económico Mundial, del cual es presidente ejecutivo Klaus Schwab.

Este artículo tiene como eje central los apuntes tomados durante la conferencia de Sala i Martin y se complementa con los planteamientos de otros autores. A continuación, se aborda el tópico de las revoluciones industriales y en la siguiente sección sus implicaciones sobre el trabajo. Por último, se presentan algunas reflexiones.

Revoluciones industriales

Desde los primeros tiempos, el hombre ha buscado la forma de reducir el esfuerzo del trabajo en la producción y de aumentar la productividad; lo ejemplifican el arado y el uso de animales de labranza. Pero cabe anotar que a la vez que se alcanzan esos objetivos, se reduce el número de trabajadores necesarios para obtener tal producción.

Esa relación es poco relevante, cuando la introducción de innovaciones se hace de forma gradual, lo que se refleja en pequeñas variaciones de la productividad y los ingresos. Como lo señaló Sala i Martin, durante miles de años el ingreso per cápita promedio en el mundo se mantuvo estable alrededor de los US$500 a pesar de los notables inventos que hizo la humanidad.

Un cambio abrupto en esa tendencia ocurrió con el advenimiento de la revolución industrial desde finales del siglo XVIII. A partir de ella el ingreso per cápita aumentó exponencialmente hasta los niveles de US$9.000 que tenemos hoy en día.

Pero el crecimiento exponencial no ocurrió como resultado de una sola revolución industrial, sino de varias. Ellas se caracterizaron por la introducción de una nueva tecnología, alrededor de la cual se gestaron grandes cambios en la producción, la economía y la sociedad. La primera revolución industrial estuvo asociada a la máquina de vapor; la segunda a la electricidad y el motor de combustión interna; y la tercera a la tecnología digital y los celulares.

Ahora estamos en la cuarta revolución industrial, que Sala i Martin califica como “la madre de todas las revoluciones”. Esto, porque a diferencia de las anteriores, se caracteriza por la confluencia de numerosas tecnologías, cada una con el potencial para producir una revolución industrial: robótica, cloud computing, sensores y redes, big data, digital manufacturing, biología sintética, medicina digital, nanomateriales, on demand technologies, e inteligencia artificial, entre otras.

Hay otros autores que enfatizan en el crecimiento exponencial de la tecnología como el elemento diferenciador de la cuarta revolución industrial. Esa percepción se fundamenta en la Ley de Moore, “según la cual la potencia de los ordenadores se duplica cada dos años” (Ford 2016; p. 13). Esto implica que, a diferencia de lo ocurrido durante la mayor parte de la historia de la humanidad, en la actual revolución la innovación y la productividad crecen a un ritmo cada vez mayor, lo que conlleva la acelerada reducción del número de trabajadores requeridos en las actividades que introducen las innovaciones.

El trabajo y la cuarta revolución

Las revoluciones industriales desplazaron millones de trabajadores. En la primera, las máquinas forzaron a los trabajadores del campo a migrar a las ciudades y se registraron protestas violentas contra la tecnología; es célebre el caso de los luditas, en el que los trabajadores textiles destruyeron los telares que les estaban quitando los empleos (Oppenheimer, 2018; p. 51).

Pero, como bien apunta Sala i Martin, en las revoluciones anteriores las innovaciones daban lugar a la generación de nuevas actividades que absorbían la mano de obra desplazada. Puso el ejemplo de la introducción de los automóviles que destruyó los puestos de trabajo de toda la gente que vivía del caballo; pero los trabajos perdidos fueron más que compensados no solo en la producción sino en la distribución, la conducción, el mantenimiento, la construcción de vías, etcétera. Además, al permitir el rápido desplazamiento de las personas en grandes distancias, facilitó la posterior aparición de actividades nuevas que nadie se podía imaginar, como el turismo masivo y los parques de diversión.

Pero la cuarta revolución plantea interrogantes respecto a la repetición de esas experiencias. Hay autores que piensan que esta vez será diferente porque el cambio exponencial que no da el tiempo para la reconversión de la mano de obra. De ahí han surgido dos grandes tendencias: los tecno-pesimistas y los tecno-optimistas (Pérez-Díaz y Rodríguez, 2016).

Los tecno-pesimistas afirman que la actual revolución industrial es diferente a la ocurrida entre finales del siglo XVIII y comienzos del XIX; creen firmemente que la automatización y robotización genera desempleo que no podrá ser compensado por la creación de nuevas actividades, lo que plantea un futuro oscuro para la población trabajadora afectada.

Los tecno-optimistas, por el contrario, sostienen con igual firmeza que la tecnología siempre genera nuevas actividades que ni siquiera nos podemos imaginar. Lo que tienen que hacer gobiernos y trabajadores es estar preparados para los cambios y re-crearse; entender que el conocimiento y las habilidades requeridas están cambiando rápidamente y que es necesario fortalecer la capacidad de reaccionar.

El principal problema, apunta Sala i Martin, es que en la cuarta revolución, por primera vez en la historia, no se va a sustituir el músculo humano sino el cerebro. La inteligencia artificial amenaza a los abogados, economistas, periodistas y médicos, entre otras profesiones; la pérdida de sus empleos implica décadas de estudio, por lo que la reconversión a otras profesiones no es fácil. Por eso, se está observando el empobrecimiento de las clases medias y, como reacción, el surgimiento de movimientos populistas en el mundo desarrollado.

Reflexiones finales

Sin duda son grandes los interrogantes que abre la cuarta revolución industrial sobre el futuro del empleo; en particular, los gobiernos no saben qué decisiones tomar en previsión a los escenarios probables y en el mercado laboral crece la incertidumbre.

Para diversos analistas, la educación tendrá un papel crucial. Pero en unos casos la recomendación es hacia el fortalecimiento de las áreas relacionadas con la tecnología, mientras que en otros se enfocan en el desarrollo de competencias como la creatividad.

También ha resurgido la idea de la renta básica universal, en la que todas las personas recibirían del Estado un ingreso mensual de subsistencia, independientemente de si es empleado o desempleado. Los problemas de financiación son el principal escollo para esta alternativa.

Quizás se repita la historia de la primera revolución, que a veces se olvida en los análisis. Durante décadas, las personas se vieron sometidas a duras condiciones laborales con remuneraciones pírricas por el exceso de oferta; solo con el tiempo fueron surgiendo nuevas actividades que demandaban mayor conocimiento, empezaron a mejorar los ingresos y surgieron las políticas de protección social (Avent, 2017).

Los gobiernos, los centros de investigación y diferentes organizaciones sociales deberían crear escenarios de discusión orientados a anticipar los cambios y hacer las recomendaciones para reaccionar oportunamente. Hay que enfilar las baterías para que esta vez no sea diferente.

Referencias

Avent, R. (2017). La riqueza de los humanos. El trabajo en el siglo XXI. Editorial Ariel, Barcelona.

Ford, M. (2016). El auge de los robots. La tecnología y la amenaza de un futuro sin empleo. Editorial Paidós, Buenos Aires.

Frey, C. y Osborn, M. (2013). “The Future of Employment. How Susceptible are Jobs to Computerisation”. Martin School, University of Oxford.

Oppenheimer, A. (2018). Sálvese quien pueda. El futuro del trabajo en la era de la automatización. Penguin Random House Grupo Editorial. Bogotá.

Pérez-Díaz, V. y Rodríguez, J.C. (2016). “El futuro del trabajo”. Fundación Rafael del Pino, Madrid.

Schwab, K. (2016). La cuarta revolución industrial. Penguin Random House Grupo Editorial. Bogotá.

El e-commerce nos quedó grande

viernes, 25 de enero de 2019
Publicado en Portafolio el vienes 25 de enero de 2019

Andrés Oppenheimer señala, en “¡Sálvese quien pueda!”, que los centros comerciales tienden a desaparecer por el desarrollo del e-commerce, o comercio electrónico; afirma que un número creciente de “malls” de Estados Unidos parecen ciudades desiertas.

El aumento de las ventas a través de internet está forzando cambios radicales en ese tipo de negocios, que cada vez dependen menos de la afluencia de los consumidores a las tiendas. Según Oppenheimer, “en 2025, los centros comerciales que sobrevivan serán los que ofrezcan “experiencias memorables” ...Ya desde hace varios años hay gigantescos centros comerciales en Minnesota, Dubái, Bangkok y varias otras ciudades que tienen pistas de esquí con nieve artificial o tanques para hacer esnórquel para atraer al público”.

Esto significa que las empresas de esas economías desarrollaron sistemas eficientes y confiables de ventas en línea que satisfacen a los consumidores. Lamentablemente, el comercio electrónico, en Colombia no genera la confianza necesaria para seguir esa tendencia global; aun cuando hay empresas que registran avances notables, las experiencias negativas que ocasionan otras impiden progresar al ritmo deseado.

Pongo como ejemplo una experiencia personal reciente, pero preocupado porque numerosas personas me han comentado situaciones similares. En diciembre pasado quise comprar un televisor por la web de una importante cadena comercial. Después de completar la casi interminable lista de datos que piden, no fue posible hacer el pago porque, supuestamente, la información introducida no coincidía con la que aparece en la tarjeta de crédito.

Ahí comenzó la tortura: entre llamadas a la cadena comercial, idas al banco y a una tienda de la cadena, migrar a la compra por el canal telefónico, recibir un correo indicando que la compra quedó realizada por un precio superior en $300 mil al ofrecido en la web, asistir al peloteo entre tienda, banco y sistema electrónico de pagos, sin posibilidad de comunicación con este último, y, finalmente, recibir un correo del sistema de pagos indicando que la compra no fue aprobada, se fueron dos días.

Entonces, renuncié a la compra virtual y me fui a la tienda física a comprar el televisor, con la misma tarjeta de crédito, pero por un precio un poco superior al de la web. No obstante, por una semana más recibí correos de la cadena comercial invitándome a terminar la compra iniciada.

¡Qué diferencia con las compras que se hacen en tiendas virtuales asiáticas, europeas y norteamericanas! Quizás eso explique que Colombia ocupe el puesto 51 en el B2C E‐commerce Index 2017 de la Unctad. Según la misma fuente, en el país, los compradores por internet como porcentaje de la población, escasamente llegan al 6% mientras que en países como Argentina (16%), Brasil (23%) y Chile (26%) nos triplican o cuadruplican. Ni para qué compararnos con el Reino Unido o Estados Unidos, con indicadores del 77% y 67%, respectivamente.

Es claro que debe primar la simplificación de los procesos de compra virtual, en lugar de la insaciable “captura de datos”, y establecer mecanismos eficientes de atención al cliente y de solución de sus problemas, en sustitución del peloteo entre asesores, tienda, bancos y plataforma de pagos. Sin ellos, el e-commerce nacional seguirá siendo marginal y en cambio crecerá la preferencia por comprar en las tiendas en línea de otras latitudes.

¿Camino a la recesión?

viernes, 18 de enero de 2019
Publicado en Banca & Economía, Edición 11, diciembre de 2018 - febrero de 2019

Un número creciente de analistas prevé una recesión en las economías desarrolladas hacia el 2020. Pero, las políticas económicas que ellas vienen adoptando también aumentan el riesgo de desaceleración de las economías emergentes.

La Reserva Federal incrementó su tasa de intervención –desde el rango de 0% a 0,25%, hasta el actual entre 2% y 2,25%–, y se espera que lo siga haciendo en diciembre de 2018 y durante 2019. El Banco Central Europeo siguió recortando el monto de compra de títulos y anunció que su tasa de interés comenzará a incrementarse en enero.

Esas decisiones propiciaron un mayor flujo de capitales hacia Estados Unidos, la apreciación del dólar y de las monedas de otras economías desarrolladas, una salida neta de capitales de las economías emergentes, la fuerte apreciación de las monedas de estos países y el aumento en la percepción de riesgo por parte de los inversionistas internacionales.

Estos factores externos sumados a una guerra comercial y a factores internos, como las malas decisiones de política económica, pueden desencadenar una crisis de las economías emergentes.

Durante la crisis mundial de 2008-2009, la mayor parte de las economías emergentes pudo implementar políticas fiscales y monetarias expansivas que les amortiguaron el impacto de la contracción de la demanda mundial. En los años siguientes hubo países que iniciaron procesos de consolidación fiscal, aprovechando los recursos del auge de precios internacionales de los productos básicos, y aumentaron las tasas de interés de sus bancos centrales, especialmente por las presiones inflacionarias generadas por la depreciación de las monedas con el choque petrolero.

Pero en la actual coyuntura hay aspectos que aumentan la probabilidad de crisis. No todos los países completaron la consolidación fiscal, pues una parte de los ingresos derivados del auge de los precios internacionales de los productos básicos fue orientada a un mayor gasto. Además, la abundante liquidez global y las bajas tasas de interés desde la crisis mundial de 2008-2009 indujeron un alto endeudamiento de gobiernos y empresas privadas, lo que los hace muy vulnerables a subidas en las tasas de interés y a las depreciaciones cambiarias. De ahí que diversos analistas perciban un aumento del riesgo de default.

La prolongada etapa de bajas tasas de interés está terminando porque los procesos de normalización de la política monetaria en las economías desarrolladas y el surgimiento de mayores presiones inflacionarias llevan al aumento de las tasas de intervención de los bancos centrales. En el caso de Estados Unidos, esa tendencia se ve acentuada por la situación de pleno empleo y por el efecto de los estímulos fiscales en el crecimiento de la demanda agregada.

El FMI señala que la inflación en las economías desarrolladas se puede acelerar más de lo previsto, lo que endurecería las políticas monetarias, induciendo mayor volatilidad en los mercados financieros internacionales y la imposición de condiciones más restrictivas para los países que conserven el acceso a nuevos recursos.

Las cifras indican la alta probabilidad de hacer efectivos los riesgos de recesión en el mundo emergente. Según la Unctad, la deuda total de las economías emergentes y en transición llegó a USD$7,64 billones en 2017 y creció al 8.5% anual desde 2008. La misma fuente señala que el endeudamiento del sector privado de las economías emergentes y en desarrollo creció de forma explosiva; su participación en la deuda mundial pasó de 7% a 26% entre 2007 y 2017. Además, el crédito a empresas no financieras, que en 2008 era el 56% del PIB, llegó al 105% en 2017.

Para ese organismo, “la vulnerabilidad se refleja en los flujos de capitales transfronterizos, que no solo son más volátiles, sino que han pasado a ser negativos para el conjunto de los países emergentes y en desarrollo desde finales de 2014, habiendo sido la salida de capitales especialmente cuantiosas en el segundo trimestre de 2018”. Los movimientos netos de capital a estos países fueron positivos hasta comienzos de 2018 y luego se volvieron negativos, contribuyendo a la presión a la depreciación de las monedas.

Las cifras y los hechos mencionados generan señales de alerta. Renombrados analistas están llamando la atención sobre los riesgos actuales y el escaso margen de maniobra que tienen los países para implementar políticas contracíclicas que permitan frenar los riesgos de crisis cambiarias y de default.

El nobel de economía Paul Krugman afirma que “se ha vuelto al menos posible imaginar una crisis auto-reforzadora del estilo clásico de 1997-8: las caídas de las monedas de los mercados emergentes causan un estallido de la deuda corporativa, causando estrés en la economía y una mayor caída de la moneda”.

La Unctad resalta el riesgo implícito en la entrada de inversiones de portafolio a las economías emergentes, pues se trata de capitales altamente sensibles a los cambios en las condiciones financieras del mundo, como las que se vislumbran a partir de las decisiones mencionadas en las economías desarrolladas.

Señala este organismo que “en muchas economías emergentes, los cambios en sus balances externos de deuda a capital (tanto en el activo como en el pasivo) entre 2000 y 2016, promovidos por los gobiernos como una forma de reducir las vulnerabilidades de la deuda externa, solo han servido para aumentar otras vulnerabilidades financieras, como una presencia extranjera grande y volátil en los mercados locales de acciones”.

En síntesis, se avecinan tiempos de turbulencias. Si bien hay economías emergentes que han implementado buenas políticas económicas y tienen margen para adoptar medidas contracíclicas, hay otras que tienen un alto grado de exposición a las depreciaciones y las salidas de capital; lo vivido recientemente por Argentina y Turquía es un campanazo de alerta.

El problema de fondo es que, como lo muestran experiencias anteriores, si lo que pesa en los inversionistas es su percepción del vecindario habrá un efecto contagio que ponga en riesgo al mundo emergente. Países como Colombia, que hasta ahora son percibidos como de menor riesgo, podrían ser afectados por el deterioro de otras economías emergentes.