Las periferias de Madrid, esas grandes olvidadas (1ª parte)

Para mí, hablar de periferia en Madrid, en singular, adolece de un problema fundamental. Y es que, en realidad, las periferias de Madrid son zonas de desarrollo urbano sin apenas conexión entre sí y con una relación con el municipio claramente radial. Esto se debe a dos efectos principalmente.

Por un lado, los nuevos desarrollos no se han conectado físicamente. Es decir, no existe un tejido urbano continuo sino varios completamente separados y con sus diferentes. Para comprobarlo, fijaos en este mapa sacado de Planea (el servicio de Información Territorial y Planeamiento Urbanístico de la Comunidad de Madrid): hacia el suroeste sí que se ha respetado la continuidad urbana, pero si vemos las extensiones hacia el sur, sureste y este, vemos que siguen 3 líneas de progreso completamente diferentes separadas por grandes infraestructuras que han impedido la adopción de soluciones continuas. Esto supone una falta de continuidad de los itinerarios peatonales y en cualquier transporte que no sea el coche, limitando así muchas de las relaciones que “hacen ciudad”.

Mapa de los usos del suelo en Madrid en el año 2005. Fuente: PLANEA
Mapa de los usos del suelo en Madrid en el año 2005. Fuente: PLANEA

Además de la falta de continuidad de la ciudad, ha fallado el otro elemento vertebrador de la ciudad: la red de transportes. Y es que, está muy pero que muy enfocada hacia los movimientos centro-periferia pero no tiene nada en cuenta los movimientos entre periferias. Sólo hay que ver la red de Metro y pensar en el camino que habría que recorrer para ir de La Gavia hasta, por ejemplo, San Blas, o de Pavones a Villaverde Alto. O analizar la oferta de transporte público en desarrollos recientes como Las Tablas y Valdebebas.

Mapa de Metro de Madrid
Mapa de Metro de Madrid. Fuente: Metro de Madrid

Pero esto es normal, no es que se haya planificado mal la red de transportes (o, al menos, no muy mal). Se debe al hecho de que la red se asienta sobre el desarrollo urbano y las periferias no se han planificado como extensiones de la ciudad sino como una suerte de “miniciudades dormitorio” dentro del propio municipio de Madrid.

Me explico: si analizamos el centro de la ciudad y la almendra central, nos daremos cuenta rápidamente de que es una zona extremadamente compleja, continua, diversa en usos y funciones urbanas, interconectada a través de un transporte público muy mallado… En definitiva: una ciudad. Sin embargo, si nos fijamos en los nuevos PAUs, nos damos cuenta de que son colecciones de grandes edificios en comunidad cerrada, sin apenas comercio salvo algún que otro bajo comercial y, por supuesto, unos grandes almacenes en el lugar más recóndito del desarrollo urbano y con los peores accesos posibles en transporte público,… Son desarrollos sin vida.

Y, ¿por qué? Sencillamente, porque no suponen un incentivo a desplazarse hacia ellos. Así, la mayor demanda se producirá precisamente en las relaciones centro-periferia, forzando a reforzar esos corredores. Esto a su vez, produce una mayor dependencia del centro, deprimiendo económicamente a las periferias, al no existir ni un entorno económico favorable ni cohesión a nivel de renta de sus habitantes, que tienden a situarse en grupos de renta relativamente homogéneos.

Zonas con la mayor concentración comercial (superficie catastral de locales) en 2013. Fuente: http://metrhispanico.com
Zonas con la mayor concentración comercial (superficie catastral de locales) en 2013. Fuente: http://metrhispanico.com

La solución sería lo que ya se ve en las relaciones del municipio con su área metropolitana: generar nuevas centralidades que reequilibren las pautas de movilidad genera, a su vez, relaciones transversales que justifican la prestación de servicios públicos de transporte. Y, de hecho, al aumentar las relaciones entre zonas, se premiaría también la capacidad económica y comercial de las diferentes zonas.

Este post continuará el próximo lunes [ver enlace].

Técnicas utilizadas en la planificación (1). La metodología DELPHI

La decisión entre las consideraciones puramente técnicas y los costes de los proyectos se ha realizado tradicionalmente por medio del Análisis Coste-Beneficio. Desde las últimas décadas del s. XX, la conservación del medio ambiente se ha configurado como una variable que ha ido ganando importancia en la planificación y construcción de las infraestructuras de transporte, lo que contribuyó decisivamente en la formalización de un modelo de toma de decisiones basado en el uso de múltiples criterios de análisis, el Análisis Multicriterio. Si bien algunos de estos efectos se incluyen en ocasiones dentro del Análisis Coste-Beneficio o figuran dentro del Análisis Multicriterio, se carece de una sistemática de análisis. Aparte ya de la consideración de criterios no mesurables…

Por ello, se están tratando de aplicar técnicas novedosas para resolver problemas de planificación. Las más importantes que se han implementado son: análisis de clúster, árboles de clasificación y de decisión, análisis de escenarios futuros (simulación), metodología DELPHI, Sistemas Expertos (Redes Bayesianas y Redes Neuronales Artificiales) y Sistemas de Información Geográfica.

En este post voy a hablar de una de las técnicas que utilicé en mi Tesina: la metodología DELPHI. Sin embargo, no pretendo explicar absolutamente todo sobre esta técnica sino aproximar el concepto y comentar cómo lo apliqué a la Tesina.

De todos modos, si quieres aclarar cualquier punto o si tienes alguna pregunta para resolver otro problema, no dudes escribirme a través del contacto de esta web.

¿Qué es la metodología DELPHI?

Se trata de un método de estructuración de un proceso de comunicación grupal para tratar un problema complejo o con múltiples criterios a tener en cuenta.

Se basa en el análisis de las ideas de un grupo de expertos que se especializan en un campo de conocimiento en la búsqueda de un consenso de opinión.

El método DELPHI sigue una estricta metodología. Aunque la literatura científica suele hablar de 4 fases (Definición de objetivos, Selección de expertos, Elaboración y lanzamiento de los cuestionarios, Explotación de resultados), a mí me gusta ir un poco más allá y definir la metodología como un proceso y no como tareas separadas:

  1. Formulación del problema. En esta primera fase se plantea la formulación del problema y un objetivo general que estaría compuesto por el objetivo del estudio, el marco espacial de referencia y el horizonte temporal para el estudio.
  2. Redacción del cuestionario. Lógicamente, hay que redactar un cuestionario para encuestar a los expertos. Las preguntas deben ser claras, concisas y rápidas de contestar, de forma que los expertos se vean predispuestos a responder sin un esfuerzo elevado. Es importante también que haya un espacio para que los expertos expresen su opinión con cierta flexibilidad. Para ello, es bueno habilitar un espacio para sus observaciones al final del cuestionario. El feedback de los expertos resulta fundamental para extraer posteriormente las conclusiones del estudio.
  3. Selección del panel de expertos. Esta fase presenta dos dimensiones: a. Dimensión cualitativa: Se seleccionan en función del objetivo prefijado y atendiendo a criterios de experiencia posición, responsabilidad, acceso a la información y disponibilidad. b. Dimensión Cuantitativa: Elección del tamaño de la muestra en función de los recursos medios y tiempo disponible.

Hay quien prefiere avisar a los expertos antes de lanzar el cuestionario y quien se lo envía directamente. Eso sí, en ambos casos es necesario acudir a más expertos de los que son necesarios en el estudio, de forma que si algunos no finalizan el proceso, el estudio siga teniendo validez.

Además, es recomendable realizar el cuestionario de manera anónima (por ejemplo, haciendo uso del correo electrónico) para evitar los efectos de «líderes».

  1. Primer lanzamiento de los cuestionarios. Se mandan cuestionarios y a esperar las respuestas. Lo ideal es tener ya listos los estadillos para rellenar con la información recabada. Si no, es el momento de hacerlos.
  2. Explotación de los resultados del primer lanzamiento. Consiste en el análisis de las respuestas del cuestionario y el feedback con la información.
  3. Segundo lanzamiento de los cuestionarios. Se suministra a cada experto las opiniones de sus colegas, y se abre un debate transdisciplinario, para obtener un consenso en los resultados y una generación de conocimiento sobre el tema. El objetivo es tratar de conseguir consenso, por medio de la interrogación a expertos con este segundo cuestionario, a fin de poner de manifiesto convergencias de opiniones y deducir eventuales consensos. Cada experto argumentará los pros y los contras de las opiniones de los demás y de la suya propia.
  4. Explotación de los resultados del segundo lanzamiento. El objetivo de los cuestionarios sucesivos, es alcanzar el consenso de los expertos. Aunque la formulación teórica del método Delphi propiamente dicho comprende varias etapas sucesivas de envíos de cuestionarios, de vaciado y de explotación, los estudios se limitan normalmente a dos etapas, lo que sin embargo no afecta a la calidad de los resultados tal y como lo demuestra la experiencia acumulada. Con dos rondas, se reduce el tiempo necesario para realizar el estudio y se evitan así las deserciones que se producen en cada fase del cuestionario.

La metodología DELPHI aplicada a la localización de puertos secos

En mi Tesina, seleccioné un amplio grupo de expertos de las diferentes especialidades que confluyen en mi investigación: logística, sostenibilidad, impacto ambiental, planificación de transportes y geografía. Con esto se busca que los pesos obtenidos sean lo más representativos posible y no hayas sesgos debidos a la especialización de los expertos en un solo área.

Lo que buscaba al final eran los pesos (la importancia) de los 14 criterios que quería tener en cuenta para localizar puertos secos, los cuales había seleccionado tras revisar pormenorizadamente la literatura científica al respecto.

Los pesos obtenidos se utilizan mediante un algoritmo de Análisis Multicriterio Lineal Ponderado para evaluar la calidad de las localizaciones de los puertos secos existentes en España. Pero esto ya lo contaré…

¿Cómo extraje la información sobre los pesos?

Precisamente el principal motivo para escribir este post es que me encontré con que a lo largo y ancho de internet había muchísima información sobre qué es el DELPHI, para qué sirve, quién lo ha aplicado, muchísimos artículos científicos utilizando la técnica para los más diversos estudios… ¡pero no había prácticamente nada sobre cómo se aplica! Y, por supuesto, en castellano aún menos.

Así que, como justo acababa de hacer un curso de estadística aplicada a la investigación experimental, lo primero que hice con los datos fue analizarlos de forma descriptiva. Y me di cuenta de que la mayoría de las representaciones y análisis no me servían para mucho. Salvo los gráficos de Box and Whisker.

Box and Whiskers Plot
Box and Whiskers Plot

Lógicamente, lo que quería era medir el consenso, así que necesitaba que en la segunda fase las cajas fueran más pequeñas que en la primera (y cuanto más pequeñas mejor), que los bigotes no se separaran en exceso y saber qué datos eran atípicos (o muy altos o muy bajos respecto a la mediana). Al fin lo tenía: sólo tenía que medir el rango intercuartílico.

Al principio me emocioné y traté de programarlo en R. ¡ERROR! Después descubrí que existía R-Commander y aquello parecía que me iba a solucionar la papeleta porque ya no estaría frente a una pantalla en blanco sino que tendría barras de herramientas. ¡NUEVO ERROR!

El tiempo apremiaba para entregar la Tesina y acabé optando por SPSS. ¿Para qué tratar de inventar la rueda si ya está inventada y funciona bien? Desde luego, si queréis grandes refinamientos, como estudiar la muestra respecto de la media armónica, establecer límites distintos que los cuartiles, etc, os tocará programar en R. Si vais a usar un Box and Whiskers clásico, SPSS funciona de lujo.

Pero me enfrentaba a otro problema: la mediana es el estadístico de centralización que se usa en estos diagramas y es muy robusto, pero…  ¿quién no se hace mejor idea con la media aritmética que con la mediana? Así que opté por trabajar con la mediana y pasar el segundo cuestionario a los expertos con los resultados del primer cuestionario usando la media.

El resto fue hacerme una buena hoja de cálculo para ordenar las respuestas, calcular los rangos intercuartílicos de cada criterio, sacar los diagramas de Box and Whiskers y poco más.

Para finalizar, os muestro qué consenso se alcanzó. Con esto ya estaba todo listo para extraer las conclusiones del estudio. Las tenéis en el paper adjunto al post de la categoría de |Docencia e Investigación| [ver enlace].

Box and Whiskers Plots de mis datos para la primera y la segunda fase
Box and Whiskers Plots de mis datos para la primera y la segunda fase

Gentrificación y movilidad

Si hay un post de los que he escrito en ecomovilidad.net que haya tenido una respuesta contundente, ha sido en el que me refería a la gentrificación y sus consecuencias en la movilidad urbana. Y no es que sea un artículo con un número impresionante de visitas, sino que conectó con el público objetivo: ese mismo día tuvo retweets de muchos interesados en el urbanismo, en @desdevic me pidieron que definiera «gentrificación» para su glosario abierto, se compartió muchísimo (algunas veces es más adecuado decir «copió», porque en alguna ocasión me he encontrado el texto por ahí y lo he tenido que reivindicar como propio) y, de vez en cuando, me sigue llegando algún pingback avisándome de que me han citado como fuente [ver enlace]. ¡Toda una alegría, desde luego!


Hace unas semanas, leyendo una noticia sobre un conflicto producido en San Francisco por la gentrificación de una de sus zonas, nos planteamos si ésta tendría algún reflejo en la movilidad. Sin pretender un análisis muy profundo, pues sería imposible abarcar todo lo que se ha escrito sobre este fenómeno, aquí está una pequeña reflexión sobre el tema.

¿Qué es la gentrificación?

Desde hace décadas, muchas ciudades han experimentado dos formas de crecimiento urbano complementario: por un lado, un intenso movimiento residencial hacia la periferia y, por otro, una regeneración de ciertos espacios centrales y peri-centrales.

Además, los cambios derivados de la actual crisis, han reforzado la posición de la  ciudad central, ya que los municipios de clase alta han resistido mejor la crisis gracias al acceso de los trabajadores más cualificados a empleos en la capital y los mercados laborales de los grupos de menor cotización, que ya eran de menor extensión, se han visto incluso reducidos.

Se ha producido así un proceso de cambio social mediante el cual los grupos poblacionales de menor capacidad económica, que ocupaban algunos barrios del centro urbano en proceso de decadencia, se han visto reemplazados por clases más acomodadas que buscaban espacios residenciales diferentes a los de baja densidad en el extrarradio para eludir las dificultades de acceso al centro de la ciudad, en muchos casos motivado por la necesidad de articular proximidad laboral y localización residencial.

Este proceso ha sido ampliamente estudiado y su nombre es gentrificación (ver el link).

 [seguir leyendo el post]

[la imagen destacada está sacada de esta web]

El vehículo eléctrico. Desmontando el mito

En este post voy tratar de explicar los impactos que tienen los vehículos de combustión y los vehículos eléctricos sobre el medioambiente y sobre el medio urbano. Veremos con esto que el vehículo eléctrico resulta mejor que el vehículo de combustión, pero no por ello necesariamente bueno.

¿Cómo se mide el impacto de un medio de transporte?

El impacto de los diferentes medios de transporte se establece en base a sus externalidades. Éstas son beneficios o perjuicios que una actividad genera sobre la sociedad, pero que no son compensadas con ingresos o costes. Es decir, son fallos del mercado que se producen cuando esta actividad de una produce efectos (positivos o negativos, en este caso negativos) que afectan a terceras personas que no han participado en su producción o en su consumo.  Efectos provocados en el bienestar de los demás, vaya.

Y, ¿cuál es la causa de las externalidades? Pues ineficiencias por un uso cuestionable de los recursos. Y, ¿qué consecuencias tienen? La primera es obvia y es que entre todos como sociedad paguemos actividades individuales y además, y ésta es menos inmediata, un reparto desigual en la asignación de nuevos recursos con el objetivo de paliar las externalidades negativas. Y, claro, son recursos que tienen un coste de oportunidad y no pueden ser asignados en actividades que generarían externalidades positivas (aunque hay excepciones como, por ejemplo, la investigación para la reducción de algunas externalidades negativas tiene resultados que generan externalidades positivas -mejoras en la eficiencia-).

Entonces, ¿cómo se solucionan?

Para el fallecido economista Ronald Coase, la mayor parte de los problemas por externalidades se deben a que no están claramente definidos los derechos de propiedad. Como consecuencia, no hay mercados (o son extremadamente rígidos) en los cuales el intercambio permita la internalización de los costes externos y, como ni los beneficios ni los gastos están reflejados en los precios, el desarrollo del equilibrio económico los excluye impidiendo la aproximación al Óptimo de Pareto teórico. Por ello, plantea que se debe conseguir que quien produzca una externalidad tenga que soportar la totalidad del coste externo (o que disfrute la totalidad del beneficio externo, de ser una externalidad positiva). Esto, que se llama internalizar la externalidad, es la base del principio muy conocido de “quien contamina paga”. Sin embargo, hay muchos otros costes externos que no se han internalizado (y apenas se ha planteado).

Representación gráfica del Óptimo de Pareto. Fuente: Wikipedia
Representación gráfica del Óptimo de Pareto. Fuente: Wikipedia

Otros, como el psicólogo Rob Kurzban, prefieren pensar en el uso de los incentivos económicos para lograr que tanto las empresas como los particulares produzcan un mayor número de externalidades positivas y una menor cantidad de externalidades negativas.

Como en todo en esta vida, habrá opiniones… La mía es que, como los precios no tienen en cuenta las externalidades negativas, las decisiones económicas no pueden estar basadas en la plena eficiencia, al excluir de forma sistemática una parte de los costes. Y, obviamente, cuando unos se benefician por externalidades y otros son perjudicados por externalidades se debe tener esto en cuenta a través de ajustes como impuestos a los que se benefician y pagos a los que pierden, intentando maximizar el Óptimo del Pareto.

Pero antes de nada, pasemos a ver qué externalidades tiene un vehículo privado “clásico” con motor de combustión.

Las externalidades del vehículo de combustión

Aunque un vehículo de combustión por sí mismo no es necesariamente malo, su uso indiscriminado (diría que irracional) produce una serie de costes que el usuario no percibe.

Además, en las ciudades, debido a la intensa demanda de transporte motorizado, estos impactos resultan, incluso, más acuciantes.

Para Alfonso Letón (desde mi punto de vista uno de los mejores ingenieros jóvenes dedicados al transporte sostenible que he conocido), las externalidades se pueden clasificar de la siguiente forma (para más detalles visitar este enlace):

1) Problemas económicos:

– Costes económicos.

– Congestión.

– Pérdida de competitividad.

– Dependencia energética.

– Consumo de espacio público.

2) Problemas medioambientales:

– Contaminación.

– Cambio climático (aunque a mí me gusta hablar más de “cambio global”, respeto el título).

– Ruido.

3) Problemas sociales:

– Accidentalidad.

– Inequidad.

– Falta de accesibilidad.

¿Cuáles de estas externalidades resuelve el vehículo eléctrico?

Si nos fijamos en la lista anterior, nos daremos cuenta de que al no haber variado el concepto de coche, sólo se actúa sobre dos externalidades: contaminación y cambio climático. Así, el vehículo eléctrico no es, pues, la panacea… y su única ventaja sobre los vehículos de combustión es energética (y, en parte, económica si pensamos en términos de la teoría del economista David Ricardo en cuanto a que cuanto más escasean los recursos, más atractivas son sus alternativas y el petróleo es un recurso limitado y no renovable).

Vehículo eléctrico enchufable. Fuente: evwind.com
Vehículo eléctrico enchufable. Fuente: evwind.com

Desde 2005, el sistema eléctrico español tiene exceso de generación, con lo que se vende parte de la energía generada a países vecinos. Así, desde REE apuntan a que si en España hubiera un millón de vehículos eléctricos, la demanda anual de electricidad aumentaría en aproximadamente un 1%. Como el exceso de generación es de un 3%, esto quiere decir que el país podría integrar tres millones de vehículos eléctricos sin necesidad de aumentar la potencia instalada en la red.

Además dicen que, incluso, al cargarse preferentemente de noche, producirá un efecto de mejor reparto de la demanda eléctrica a lo largo del día. La cuestión es que el exceso de generación del sistema suele producirse por la noche, ya que baja la demanda de electricidad pero algunos sistemas de generación permanecen constantes (energía nuclear) o bien generan de manera no planificada (como la eólica). Así, se ayudaría a paliar la infrautilización de la red por las noches. Aunque esto sólo con las recargas lentas, ya que las recargas rápidas requerirían un aumento de la potencia instalada de la red.

Curva de demanda de electricidad. Fuente: Red Eléctrica Española
Curva de demanda de electricidad. Fuente: Red Eléctrica Española

Sin embargo, admitiendo como cierto lo anterior y siendo cierto que el motor eléctrico consuma casi la cuarta parte que un motor de gasolina, y la tercera parte que un motor diésel, los estudios demuestran que las mejoras en la eficiencia no suelen ir acompañadas de reducciones en el consumo total de un recurso, sino a menudo lo contrario. Es lo que se conoce como el “efecto rebote” o paradoja de Jevons. Y es que, la “conciencia tranquila” que puede provocar el uso de un coche eléctrico puede repercutir en una mayor utilización de estos automóviles.

A la vista de esto… ¿no representa el vehículo eléctrico únicamente una nueva forma de que nada cambie?

Nota: la imagen destacada, sacada de la Wikipedia, nos presenta un vehículo eléctrico del año 1913. Como vemos, no es un invento de hace unos días.

Carteles para daltónicos en el Metro de Oporto

Volviendo sobre el concepto de la accesibilidad universal que ya se ha comentado en un post anterior [enlace], hay colectivos como los invidentes o las personas con movilidad reducida que suelen ser tenidos en cuenta a la hora de planificar las ciudades y los sistemas de transportes. Pero también hay personas que sin ser grandes discapacitados, también encuentran dificultades para llevar una vida completamente normal y, sin embargo, sus necesidades no suelen ser contempladas. Un ejemplo son los daltónicos.

La verdad es que gracias al post que voy a compartir hoy con vosotros y que publiqué en su día en ecomovilidad.net, tomé conciencia de la magnitud del problema. Lo publiqué como una curiosidad porque lo había visto en Oporto y me pareció útil, pero a raíz de ese post, entré en contacto con Miguel Neiva y Ricardo Morete, de ColorADD y me propusieron introducir su sistema de colores en los sistemas de transporte de España.

Por el momento no he tenido mucho éxito con ello, pero sí que me ha servido para aprender bastante de este defecto genético y fijarme en las carencias de la señalización de los sistemas de transporte en este sentido, así que considero que ahora sería muy capaz de dar soluciones para diferentes sistemas de transporte en España. Y, como antes o después, creo que conseguiré que alguien me haga caso, está bien estar preparado con antelación.

¿Gestionas una empresa de transporte y quieres introducir el sistema? Ponte en contacto conmigo.

_____________________________________________________________________________________________________

En el Metro do Porto han entendido que la accesibilidad universal debe llegar a todos. Y, por ello, conscientes de los problemas de los ciudadanos daltónicos para distinguir las diferentes líneas de la red identificándolas por sus colores, han implantado un sistema de doble identificación de las líneas llamado ColorADD.

Los principios básicos del código monocromo desarrollado por el profesor Miguel Neiva, de la Universidad del Miño, son los siguientes:

1) Una barra diagonal simboliza el amarillo, mientras que el rojo y el azul están representados por triángulos que apuntan en sentidos opuestos. Combinados como en la paleta de un pintor, la barra y el triángulo hacia la derecha forman el verde, y así sucesivamente para los siete colores del arcoiris.

[seguir leyendo el post]

El blog de Samir Awad Núñez

Uso de cookies

Utilizo cookies propias y de terceros para tener una muestra del tráfico web y posibilitar el uso compartido en redes sociales de la información que aquí encuentres, la navegación continuada se considerará que aceptas su uso. Política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies