DOS mejor que CUATRO. [EL RENDIMIENTO – II]

El último día se publicaba un título homólogo sobre el tema del “rendimiento”. En aquella ocasión se hacían algunas consideraciones sobre rendimiento en el consumo de combustible para las instalaciones de calefacción, justificando la ventaja de disponer dos calderas combinadas, para permitir una respuesta mejor modulada, en unas condiciones de demanda variable, para un sistema de combustión del tipo “todo o nada”.
 
Hoy vamos a revisar algunas consideraciones sobre el número de motores en los aviones de pasajeros, que justifican la generalización de DOS motores en la mayoría de los aviones, que pueden verse en los últimos años, la cual también responde una cierta lógica del rendimiento o la eficiencia de uso, aunque por un tipo de razones, que inicialmente no resulten demasiado evidentes.
LA SEGURIDAD en el VUELO
Dentro de la regulación de seguridad en los aviones de pasajeros, existe un requisito básico, que responde a una lógica elemental y en última instancia condiciona los resultados. Este requisito es la condición indispensable de que cualquier avión de varios motores, debe soportar el fallo completo de uno de ellos, en cualquiera de las posibles circunstancias de vuelo, ya sea el despegue, aterrizaje, crucero, etc.
 
Este requisito naturalmente es completamente indispensable y en pura lógica indiscutible. En base a ese requisito es precisos concebir y establecer la configuración del avión desde sus fases iniciales de diseño, en relación con el número de motores y naturalmente la potencia y sus dimensiones adecuadas.
 
Naturalmente otra de las condiciones básicas cuando se proyecta un avión de pasaje, es que el consumo de combustible esté razonablemente ajustado por una buena eficiencia, para que los costes de operación de sus futuros clientes, sean competitivos y rentables. Esta consideración sin embargo, es totalmente secundaria en el ámbito de la aviación militar, ya que la operación de los aviones depende de requisitos completamente diferentes de la rentabilidad comercial.
EL PANORAMA ACTUAL
Si observamos el panorama de un aeropuerto en la actualidad podemos ver que proliferan notablemente los aviones con dos motores bastante voluminosos bajo las alas, aunque también hay una presencia considerable de aviones con cuatro motores, sobre todo los frecuentes Boeing 747 y actualmente los A-380, pero sin embargo estos dos modelos tienen una peculiaridad como es el tamaño, ya que destacan por ser los aviones de máxima capacidad.
 
Hace ya bastantes años era mucho más frecuente ver aviones con cuatro motores bajo las alas, especialmente aquellos que hacían vuelos transoceánicos o de mayor radio de acción, y los de dos motores, que muchas veces se disponían en cola, adosados al fuselaje, se empleaban en aviones algo más reducidos y de corto o medio radio de acción.
 
También hubo una época a finales de los 70s en la que proliferan disposiciones de tres motores con cabina ancha, como los DC-10 y  Lockheed 1011 en aviones de largo radio, pero es cuando se afianza el éxito de AIRBUS en los 80s, cuando se generaliza la configuración de dos motores, también para aviones de largo recorrido.
LA POTENCIA
La elección de la potencia para los motores de un avión, es una decisión que se adopta en las fases iniciales de proyecto, cuando se configura el conjunto de requisitos que debe cumplir, para competir con sus rivales en función del panorama comercial. El requisito básico es una cuestión técnica vinculada al número de motores, dado que la suma total de potencia es la que asegura las prestaciones del avión, o su capacidad de despegue y aterrizaje junto a las velocidades y altitud, máximas o de crucero.

Una vez establecida la cuantía de potencia máxima “P”, que deben proporcionar los motores del futuro avión, es cuando procede hacer diversas consideraciones sobre el número de motores que es conveniente adoptar. Lógicamente cuanto mayor sea el número de motores, más se reduce la potencia unitaria de cada uno, P/2 o bien P/4, P/6 .. /8 etc. No obstante en este punto es preciso añadir el requisito de seguridad previamente establecido, lo que equivale repartir de forma homogénea, la potencia total entre el número total de motores menos uno [N-1]. P, P/3, P/5 .. /7.
 
Esto supone que un avión con solo dos motores necesita que cada uno de ellos disponga de toda la potencia “P” necesaria para asegurar el vuelo del avión en cualquier circunstancia. Por otra parte un avión con una configuración de cuatro motores, necesita que cada uno de ellos tenga una potencia de: P/(N-1), es decir de P/3, o lo que es lo mismo un tercio de la potencia total P.
LA VUELTA DEL ESPEJO
Una vez que ya hemos adoptado la “dimensión” de cada motor, vamos a considerar el régimen de potencia a la que tienen que operar en cada caso a lo largo de su vida útil.
 
En el primer caso, para un avión con solo dos motores, tenemos que cada uno de ellos dispone de una potencia máxima unitaria igual a P, que es la necesaria para mantener en vuelo el avión aunque el otro estuviera apagado, pero como normalmente funcionan los dos al mismo régimen por una cuestión de simetría elemental, tenemos que en este caso la vida útil del motor se desarrolla con este trabajando al 50% de su potencia teórica, y del mismo se deriva tanto el consumo de combustible, como el desgaste interno de las piezas y el mantenimiento correspondiente.
 
En el caso del  avión con cuatro motores, lógicamente funcionando todos al mismo régimen de potencia, tenemos que cada uno debe proporcionar P/4, o bien un 25% de toda la potencia necesaria. Si lo comparamos ahora con la potencia unitaria de cada motor, que ya habíamos establecido anteriormente como P/3, nos damos cuenta de que al comparar el régimen de operación normal, los motores en este caso se pasan su vida útil, a un régimen del 75% de su potencia teórica, o lo que es lo mismo (P/4):(P/3).
 
Lógicamente un motor trabajando normalmente en el entorno del 50% de su potencia teórica tiene una primera ventaja, al reducir los desgastes respecto a uno que opera al 75%, pero además tiene la ventaja adicional de que cada kilogramo de combustible se quema con mejor eficiencia y rendimiento, lo cual supone que al final de cada vuelo el avión con solo dos motores, ha quemado menos kilogramos de combustible que un avión de cuatro motores.
 
En el caso de aviones de cuatro motores, que actualmente se mantienen en uso, lógicamente hay que considerar que estos son precisamente los aviones de “mayores” dimensiones, (B-747 y A-380) y que ambos superan las 250 toneladas en el despegue, por lo que se desborda el límite práctico de poder operar con “un solo motor”, de acuerdo con la condición de seguridad necesaria, si fueran sustituidos por configuraciones de dos motores.

DOS mejor que UNA. [EL RENDIMIENTO – I]

El título del tema actual, se formula inicialmente alrededor de una relativa ambigüedad, ya que no se menciona el objeto subyacente, pero la verdad es que se refiere a algo muy concreto. Este tema, se debe completar con otro título: “DOS mejor que CUATRO”,  con el que se desarrollan bajo la idea del “rendimiento”, algunas circunstancias y consideraciones sobre objetos más o menos cotidianos, aunque  de índole muy diferente.

En el primer caso se trata de una referencia  a las “calderas de calefacción”, y en el segundo caso al “número de motores” en un avión de pasajeros. En ambos casos se trata del “rendimiento” o “eficiencia energética”, que actualmente se encuentra de moda, ya que en el ámbito de la arquitectura, con la entrada en vigor de nuevas disposiciones sobre los certificados de eficiencia energética, tiene una gran relevancia.

Rendimiento y eficiencia.

Cuando es necesario considerar o evaluar el “rendimiento” en una instalación de calefacción, no basta con establecer las condiciones de confort que es capaz de  mantener la instalación respecto a unas condiciones adversas,  sino que también es preciso evaluar el consumo del combustible necesario para mantener esas condiciones a lo largo de un determinado periodo de tiempo, que se toma como referencia.

En el ámbito de la edificación, la práctica normal se limitaba solo a la primera de las dos consideraciones, haciendo un cálculo o estimación de las  “cargas” que soporta el sistema en el momento más desfavorable, y con arreglo a esos valores se determinan la potencia máxima de la caldera, los caudales, diámetros y la capacidad de todos los elementos que forman el conjunto.

Sin embargo para considerar el “rendimiento”, este ya no depende solo de las condiciones más desfavorables en un determinado momento, sino que además es necesario hacer estimaciones concretas a lo largo de un periodo prolongado (normalmente un ciclo anual completo), determinando que fracción de la potencia disponible es necesario aplicar en cada momento, y de esa forma deducir el gasto acumulado de combustible, que lógicamente depende del comportamiento del edificio en su conjunto:  volumen total, forma, orientaciones y soleamiento, aislamientos,  ventilación y naturalmente el régimen de utilización y el comportamiento de la instalación, además de la variación estadística en las condiciones externas o climáticas a lo largo de todo el periodo.

Este tipo de cálculo es particularmente extenso y repetitivo, ya que supone ir evaluando sistemáticamente en intervalos regulares, unas condiciones exteriores concretas, y en función de ello, las pérdidas de calor en cada superficie o paramento que configura los espacios del edificio, anotando ordenadamente la energía que hay que añadir desde el sistema de calefacción a lo largo de todo el periodo. Obviamente ese cálculo solo tiene sentido mediante una herramienta informática, que permita hacer una “simulación térmica”  completa sobre las características de cualquier  edificio.

CONSIDERACIONES GENERALES

Una de las primeras consideraciones básicas en el rendimiento de los sistemas de calefacción,  es la del tamaño de la instalación, ya que los rendimientos propios de cualquier caldera de combustión, habitualmente mejoran con el tamaño y la potencia de la misma, aunque no obstante es preciso distinguir claramente la mejora del rendimiento que puede suponer una instalación de mayor potencia, de lo que representa el propio “volumen” o espacio que se quiere calentar, y además de ello, su factor de forma.

Sobre la incidencia del volumen a calentar,  es preciso considerar que para mantener una temperatura estable en un determinado volumen, resulta necesario añadir la energía suficiente para compensar la constante pérdida de calor que se produce a través de las superficies de delimitan dicho volumen. Lógicamente las pérdidas de calor son proporcionales a las superficies, pero sin embargo el calor acumulado en el interior es proporcional al propio volumen, por lo que la relación entre ambos parámetros, se va incrementando paulatinamente con el tamaño absoluto, contribuyendo a diluir la importancia relativa de las pérdidas de transmisión, respecto a otro tipo de cargas como el arranque inicial o las cargas de ventilación.

Además del volumen del espacio a calentar, también es preciso considerar su “factor de forma”, entendido como el cociente de dividir el volumen del recinto por la superficie que lo delimita, pero considerado como una relación diferente de la anterior, relativa al volumen absoluto.  Para entender esta nueva diferencia, es preciso considerar dos figuras que tengan el mismo volumen pero distinta forma. En primer lugar consideramos un volumen regular, como por ejemplo un “cubo” que tenga 10m de arista. Esto supone que su volumen son (10x10x10 = 1.000 m3) y por otro lado la superficie de cada cara, será de (10×10 = 100 m2) y la superficie total, dado que tiene seis caras, 600 m2. En segundo lugar consideremos una figura con el mismo volumen pero de forma mucho más esbelta o alargada, como por ejemplo un prisma recto de (4 x 5 x 50m).  En este caso el volumen será el mismo (1.000m3), paro sin embargo la superficie de sus caras suma un valor de 940 m2 que como vemos supera en más de vez y media la del caso anterior.

LA INSTALACION

Para calentar un edificio, lo habitual es  dotarlo con la instalación de “UNA CALDERA” en la que se va a quemar el combustible necesario. Su tamaño se ajusta evaluando las cargas o pérdidas de calor que puedan producirse en el momento o circunstancia más desfavorable.  De esta forma se asegura la disponibilidad de potencia suficiente en todo momento.  No obstante si lo que preocupa es el “rendimiento” del sistema, es necesario hacer un análisis algo más profundo, considerando también otras circunstancias relativas al funcionamiento continuado de la caldera a lo largo de su vida útil.

En primer lugar hay que considerar que las calderas más grandes tienen mejores rendimientos que las pequeñas. Sus diseños están más ajustados y las propias condiciones de una combustión mayor y más enérgica son más eficientes, no obstante también se debe considerar que para una caldera más grande, las pérdidas absolutas que suponen los procesos de arranque y parada, son también proporcionalmente mayores.

Por otra parte el rendimiento propio de las reacciones químicas dentro de una combustión, requiere que estas sean estables y uniformes en el tiempo, ya que oscilaciones o cambios en el flujo de combustible, producen desajustes en las reacciones químicas que paulatinamente tienen que volver a recuperar la estabilidad. Por otra parte cualquier caldera que funcione a una carga parcial de potencia del 50% por ejemplo, tendrá que soportar las pérdidas del calor necesario para mantener a la temperatura adecuada, tanto las inercias de la propia caldera, como los objetos auxiliares y sus accesorios, que en esa circunstancia estarían lógicamente sobredimensionados.

Si ahora hacemos algunas consideraciones más sobre el modo en que se utiliza un sistema de calefacción, en primer lugar esta no tiene un uso permanente, ya que solo se utiliza durante la mitad del año. Por otra parte a lo largo del periodo de utilización, la demanda de potencia tampoco es uniforme, ya que el máximo solo va a ser requerido en unos pocos días especialmente crudos del invierno. Por otra parte también debemos considerar las variaciones a lo largo del día que pueden producir fácilmente oscilaciones de más de diez grados en la temperatura exterior.

Naturalmente la respuesta del sistema tiene que estar modulada en función de las variaciones o demandas, y para evaluar el rendimiento tendremos que hacer una estimación  estadística de esas variaciones en cada localidad o emplazamiento, añadiendo otras condiciones locales como el soleamiento. Por otra parte si pensamos que el funcionamiento óptimo de una caldera, debe ser en régimen de todo o nada, el recurso disponible para modular la potencia, es la de hacer funcionar la caldera a régimen completo, pero solo durante los  intervalos de tiempo proporcionales a la potencia requerida, y eso nos lleva irremisiblemente a incrementar las pérdidas por arranque y parada, que además se acentúan con el tamaño de la instalación.

Lógicamente si en un sistema de cierto tamaño, disponemos “DOS calderas con la mitad de la potencia, en lugar de UNA sola”, y automatizamos un funcionamiento combinado de forma que cada vez arranque una caldera distinta repartiendo los  desgastes,  podemos conseguir que con una sola caldera de la “mitad” de potencia, se cubra la mayor parte del tiempo de funcionamiento,  ya que solo va a ser necesario “encender” la segunda caldera de forma simultánea, en aquellos momentos en que la demanda supera el 50% de la potencia máxima, lo cual a lo largo de todo el periodo de “tiempo”, representa  una fracción bastante pequeña del mismo.

Esta diferencia de rendimiento puede ser fácilmente evaluada mediante programas como el CALENER, aunque lógicamente el coste de la inversión se incrementa, por lo que el “ahorro” debe ser lo suficientemente considerable, como para justificar el aumento del gasto.

DOBLE EMBRAGUE – Parte II

El último día ya se habían mencionado las nuevas cajas de cambio de doble embrague, cuyas características aparentes se pueden resumir como sistemas que carecen tanto de palanca de cambios como de pedal de embrague, y normalmente se operan con un par de levas en el volante que sirven para subir o bajar marchas respectivamente.

El sistema también puede operar en modo totalmente automático, sin necesidad de actuar sobre las levas, y esta apariencia supone que inicialmente el comportamiento del sistema se asocia como una variante del cambio automático tradicional. Por otra parte su auge y novedad, junto con algunas referencias difusas o ambiguas sobre sus prestaciones en el mundo de la competición, lleva a difundir una nueva moda de controlar el cambio, con unas levas junto al volante, que se incorpora fácilmente a los cambios automáticos tradicionales tratando de rentabilizar un posible tirón comercial.

En todo caso las diferencias entre el nuevo sistema y los cambios automáticos tradicionales son mucho más radicales y profundas de lo que hacen suponer las apariencias, ya que en su configuración interna, estas cajas de cambio son mucho más parecidas a las de tipo manual, que a las automáticas.

Ya se ha comentado anteriormente que la mejor forma de ilustrar esas diferencias entre los sistemas, requiere en primer lugar distinguir con claridad las características propias de los dos (manual y automático), que ya ha sido desarrollada en la entrega anterior, para luego comparar las características del nuevo sistema con los anteriores.

Para ello, en primer lugar vamos a establecer una referencia detallada sobre la secuencia de “operaciones” que realiza el conductor durante la maniobra del cambio de marchas de tipo manual, ya que en el caso del automático no tiene que intervenir.

La Utilización del cambio manual.

En primer lugar cuando el automóvil va circulando y el conductor aborda la maniobra, la primera operación que realiza es la de “pisar” el pedal de embrague, y de forma coordinada y simultánea, “soltar” el pie del acelerador para evitar la cavitación del motor que a partir de ese momento deja de soportar la resistencia de empujar el vehículo.

La segunda operación es desacoplar la marcha o velocidad, que hasta ese momento se encontraba engranada en la caja de cambios. Para ello, se opera con la palanca, moviéndola hasta la posición de “punto muerto”.

En este punto resultaría “opcional” practicar la técnica del “doble embrague”, si el conductor está reduciendo marchas, pero eso es solo un estilo de conducción opcional, que trata de agilizar los movimientos posteriores, y en ningún caso es necesario o imprescindible. Además tampoco conviene confundir esa denominación de una “maniobra”, con el “objeto” que estamos analizando.

La tercera operación imprescindible, es la de insertar la nueva marcha, lo cual se hace desplazando la palanca a una nueva posición, recordando que durante todo este tiempo el embrague se mantiene “pisado”, y por tanto el motor está girando en vacío.

Finalmente la última operación es la de “soltar” el pedal de embrague, volviendo a pisar de forma simultánea y coordinada el acelerador, con el fin de reponer la potencia del motor para que el vehículo continúe la marcha normalmente. Este movimiento requiere una coordinación bastante “sutil” respecto al punto de conexión del embrague dentro de su recorrido, y cualquier brusquedad o falta de destreza, repercute en forma de “tirones” sobre la marcha del vehículo, debido a que la transmisión de potencia y movimiento es “rígida”.

En resumen:

  1. Pisar el pedal de embrague soltando el acelerador.
  2. Desconectar la marcha utilizada, moviendo la palanca a punto muerto.
  3. Conectar una nueva marcha, moviendo la palanca a su posición.
  4. Soltar el pedal de embrague y pisar coordinadamente el acelerador. (destreza)

En estos cuatro pasos se condensa la esencia de las cajas de cambio manuales. Durante los cuatro pasos, el motor tiene que girar en vacío y no puede transmitir potencia. Por otra parte la eficiencia de la transmisión depende en cierta medida de la destreza del conductor para coordinar esos movimientos en el menor tiempo posible, optimizando el empuje sobre el vehículo.

Este tipo de transmisión por ser un sistema rígido, tiene unos límites en cuanto a peso y potencia, del orden de los mil o mil doscientos caballos en vehículos ligeros, y menos de la mitad en vehículos pesados, ya que los “tirones” que puede producir, alcanzarían con facilidad los límites de la tensión máxima en los materiales de engranajes y barras de transmisión, pudiendo generar roturas frecuentes o incontrolables.

En cuanto a la destreza necesaria para conducir, si bien en las primeras épocas del automóvil, se asumía como algo necesario o equivalente a guardar el equilibrio en una bicicleta, el desarrollo posterior y la generalización al gran público, junto con la llegada de cambios automáticos, que ya no requieren esa destreza, supone que cada vez haya un sector más amplio de clientes, dispuesto a evitar la complicación del cambio manual. Sin embargo después de muchos intentos realizados en la industria del automóvil, para automatizar el proceso del cambio manual, y debido sobre todo a la dificultad de coordinar correctamente y en distintas circunstancias, los cuatro pasos, nunca se había conseguido un resultado práctico, que mejorase la eficiencia y coordinación de un conductor diestro, hasta la aparición de las cajas de doble embrague.

Una alternativa entre lo grotesco y lo genial

Una vez expuesto el problema, vamos a formular una propuesta imaginaria que en principio puede resultar extraña, aunque luego haremos algunos matices. Supongamos en principio que disponemos de un vehículo equipado con “dos cajas de cambio” iguales entre si y una “varita mágica”, que nos permite intercambiar entre ambas cajas, la potencia del motor de un modo instantáneo.

Ahora pasamos a analizar paulatinamente la aplicación de los cuatro pasos establecidos, para realizar un cambio de marcha. En primer lugar nos encontramos que el paso 1 (pisar el embrague) ya no es necesario, dado que al disponer de dos cajas, y aunque una de ellas esté siendo arrastrada por la potencia del motor, la otra se encuentra libre, y por tanto podemos conectar la nueva marcha en la caja libre sin necesidad de ningún embrague, con lo que hemos iniciado la nueva secuencia por el paso 3, saltándonos el 1 y el 2.

A continuación aplicamos la “varita mágica” pasando de forma instantánea, la potencia del motor desde una caja de cambios a la otra, con lo que el motor sigue empujando, aunque a partir de ese mismo instante con una marcha (o desmultiplicación) diferente, ya que hemos usado la segunda caja de cambios. Este paso no existía en la relación inicial y por tanto vamos a identificarlo como “0” (cero).

Finalmente para que todo quede como estaba, aún tenemos pendiente “desacoplar” la marcha que veníamos utilizando, y que por tanto se corresponde con el paso 2 de la relación. También hay que considerar que tampoco es necesario desconectar ningún embrague, ya que al disponer de dos cajas de cambio, la que se venía utilizando queda en vacío a partir del paso cero y por tanto la desconexión directa del engranaje no presenta ningún problema.

Finalmente podemos llegar a la conclusión de que con esta artimaña hemos reducido la lista anterior a solo tres pasos, con dos de ellos invertidos, y además nos hemos quitado de en medio el pedal del embrague, dejando algo así:

3 – Conectar la nueva marcha.
0 – Aplicar la varita mágica, cambiando la potencia a la otra caja.
2 – Desconectar la marcha anterior.

Aún queda pendiente la presencia de la palanca de cambios, aunque si lo pensamos bien nos damos cuenta de que una palanca accionada por el conductor, se debe solo a la necesidad de “coordinar” el movimiento con la acción del embrague, y si este no tiene que intervenir, resulta más razonable accionar los engranajes mediante relés o interruptores mecánicos de cualquier tipo, ya que no necesitan estar “coordinados” o “intercalados” en ninguna otra secuencia de movimientos o acciones del conductor.

Eureka!

Este parece el momento indicado para destacar que acabamos de darnos de bruces con una forma de operar mediante un cambio de marchas basado en pares de engranajes, que ya no necesita ni pedal de embrague, ni palanca de cambios. Por otra parte si queremos “traducir” la parte grotesca del ejemplo virtual, debemos recordar que la configuración de una caja de pares de engranajes, se basa en la disposición de dos ejes paralelos denominados “primario” y “secundario”, de los que el secundario recibe la potencia del motor, que pasa al primario a través de la conexión de un solo “par” de engranajes en cada momento.

Si ahora configuramos  una sola caja de cambios, pero con “dos ejes secundarios” y cada uno de ellos solamente con los engranajes de las marchas “pares” o “impares”, y además de esto, acoplamos la potencia del motor mediante “dos” embragues diferentes pero “conmutados” entre sí, de tal forma que la conexión de cualquiera de ellos genera la desconexión del contrario, resulta que hemos implantado de forma bastante razonable los requisitos anteriores, sustituyendo las dos cajas de cambio por un par de ejes secundarios dentro de la misma caja, y la varita mágica por una pareja de embragues conmutados entre sí, que aplican la potencia del motor sobre cada uno de los dos ejes secundarios de forma independiente.

1 – Conectar la nueva marcha.
2 – Conmutar los embragues, cambiando de eje secundario.
3 – Desconectar la marcha anterior.

Analizando el resultado, vemos que además de tener una secuencia de pasos que ya no depende de la destreza o coordinación de movimientos del conductor, y por tanto resulta fácilmente automatizable, también tenemos una transmisión “rígida” que permite al conductor “sentir” el empuje de aceleración del motor en cada momento, y además y lo que es casi más importante, el “tiempo” que se encuentra interrumpida la potencia del motor se ha “reducido” considerablemente ya que ahora solo depende del tiempo de conmutación entre los dos embragues del sistema (milisegundos)

Lógicamente un sistema con estas características ha pasado a convertirse prácticamente en el “Santo Grial” dentro de la competición automovilística y además puede operar indistintamente con una par de “levas” o interruptores o bien mediante un programa informático, por lo que probablemente acabe generalizándose en los vehículos compactos y ligeros, relegando los cambios automáticos mediante “convertidor de par”, a los vehículos más grandes y pesados.

Nota: Las imágenes y referencias que acompañan al artículo se han recopilado desde internet  por medio de Google, y son propiedad de sus respectivos autores.

DOBLE EMBRAGUE – Parte I

LA CAJA DE CAMBIOS de DOBLE EMBRAGUE

Hoy voy a cambiar el tema para saltar al mundo de las aficiones, y más concretamente a la “Caja de Cambios” o cambio de marchas en los automóviles.

El cambio de marchas de un automóvil, constituye el mecanismo básico que sirve para acomodar la velocidad de giro del motor y su correspondiente entrega de par y potencia, con la propia velocidad del automóvil en cada momento o circunstancia. La diversidad de circunstancias resulta obvia pensando en el inicio de la marcha, la diferencia entre incrementar velocidad o mantenerla constante, o el súbito incremento para realizar adelantamientos con seguridad. Por otro lado la disponibilidad de potencia y par motor resulta diferente según que el régimen de giro, sea más alto o más bajo.

El “cambio de marchas” lógicamente se encuentra muy relacionado con la “destreza” del conductor ya que durante este proceso, es necesario “estimar con cierta antelación” el margen de par y potencia con las que el automóvil puede responder, ya sea en el próximo adelantamiento, al subir una pendiente o en la salida de la próxima curva.

Tradicionalmente se han desarrollado un par de sistemas diferentes para resolver el problema. Por un lado las transmisiones o “cajas de cambio” con accionamiento manual, y en contraposición las transmisiones o cambios automáticos.

La diferencia entre ambos tipos de mecanismos siempre ha sido bastante clara, con independencia de la formación o conocimientos técnicos de cada usuario. Los “cambios manuales”, requieren un accionamiento directo por parte del conductor, lo que implica un cierto nivel de destreza y mayor complejidad en la conducción, y en cambio los “cambios automáticos” responden por sí mismos en cada situación, y por tanto el conductor ya no tiene que intervenir. Esto motiva que los sistemas automáticos se asocien a confort y comodidad, y los manuales con un espíritu más deportivo y de capacidad de control sobre el comportamiento dinámico del coche.

Esta diferencia cualitativa además de servir para distinguir ambos sistemas, ha contribuido a marcar un determinado “sesgo” bastante subjetivo y estereotipado, que se refuerza con el marketing comercial, y no siempre responde a la racionalidad de sus características técnicas. Este panorama se complica últimamente con las nuevas cajas de “doble embrague” que comparten características de ambos sistemas, pero cuya promoción comercial como sistema novedoso, induce a confundirlo con sistemas automáticos, enfatizando ciertas características parciales como “cambio secuencial”, o “levas en el volante”, que enseguida son canibalizadas por la promoción comercial del cambio automático tradicional.

En mi opinión la mejor forma de establecer con claridad la diferencia entre los distintos sistemas, es revisar primero las características fundamentales que diferencian el cambio manual respecto al automático, para luego analizar con respecto a la “utilización funcional” de un cambio manual, las diferencias que se añaden con los nuevos cambios de doble embrague.

El Cambio Manual

Se trata del primer sistema históricamente desarrollado, que se basa en la idea de disponer una serie de “pares de engranajes”, colocados entre dos ejes paralelos anclados dentro de una caja. Cada “pareja de engranajes” se corresponde a una de las velocidades o relaciones del cambio de marchas.

Cada uno de los dos engranajes que forman el par, tiene distinto diámetro, aunque la suma de ambos se mantiene fija, de acuerdo con la separación entre los ejes. La proporción entre el número de dientes de cada engranaje de la pareja, es precisamente la “relación” del cambio que corresponde a cada una de las “marchas”. La transmisión del movimiento se realiza impulsando uno de los dos ejes desde el motor, y mediante la conexión, exclusivamente de una sola pareja de engranajes en cada momento, el otro eje es “arrastrado” con la desmultiplicación establecida por la proporción entre el número de dientes de cada uno.

 El “cambio” para pasar a otra marcha diferente, se realiza por el conductor, accionando con la mano una “palanca de cambios” mediante la que conecta otra pareja de engranajes distinta, siempre con la condición necesaria, de haber separado previamente la que estaba conectada.

Para realizar esto, también es necesario desconectar momentáneamente el impulso de arrastre del motor, mediante un “embrague” que se sitúa por delante de la caja de cambios, y se acciona pisando un pedal. Este se mantiene pisado hasta que se termina de acoplar la nueva marcha y al soltarse, vuelve a reponer el impulso del motor.

Los dos ejes en la caja se distinguen con la denominación de “primario” y “secundario”, siendo el primario, el que realiza la salida del movimiento ya desmultiplicado sobre la transmisión y las ruedas, y secundario el que recibe el impulso desde el motor y el embrague.

El Cambio Automático

Este tipo de cambio se desarrolla en torno a los años 50s en USA, y supone por un lado mayor sencillez y comodidad de conducción ya que no es necesario manejar el cambio de marchas, pero por otra parte es un sistema más complejo pesado y caro. A pesar de estas características, el desarrollo económico del mercado americano de la época, el nivel medio de tamaño y potencia de los coches, y el acceso al “uso” del automóvil de un extenso público femenino, poco dado a valorar las destrezas de conducción por encima del sentido práctico de facilitar el desplazamiento, aseguran un “éxito comercial” que se generaliza inicialmente por los coches más grandes o caros incrementando paulatinamente la presencia aunque menos frecuente, por los coches más compactos y económicos.

Este tipo de mecanismo, dispone también de una “caja con engranajes” y un sistema previo denominado “convertidor de par” que puede evocar un embrague, pero ambos sistemas son radicalmente distintos entre sí. Los cambios automáticos son transmisiones en general más robustas y pesadas que las de tipo manual y una de sus diferencias básicas, es que las cajas manuales transmiten la potencia y el movimiento de una forma “rígida”, y sin embargo en las automáticas hay un acoplamiento “hidráulico” que tolera cierto grado de deslizamiento.

Esta característica está también vincula con su origen, ya que las transmisiones hidráulicas proceden y resultan indispensables, en el mundo de la maquinaria “pesada”, canteras y obras públicas en general, ya que “detener” o “impulsar” vehículos de cientos de toneladas, con potencias de miles de caballos, que pueden producir tirones bruscos con cierta facilidad, asegurarían la “rotura” de cualquier sistema “rígido” de transmisión.

Esa falta de “rigidez en el acoplamiento de la transmisión se debe al “convertidor de par”, que es un mecanismo que intercepta el movimiento de giro procedente del motor, y lo transmite a la caja de engranajes posterior. El mecanismo internamente está configurado por una especie de “turbina” hidráulica, que consiste en un par de rotores con álabes o paletas de geometría muy ajustada y precisa, que a su vez forman una cámara “toroidal” (rosquilla), llena de un líquido hidráulico cuyo movimiento de giro en forma de espiral enrollada a lo largo de la rosquilla, “arrastra” al segundo rotor, y transmite la “potencia” en función de la velocidad de giro del torbellino y la inclinación particular de los álabes o paletas.

Evidentemente cuando la velocidad de giro es lenta, ese torbellino “transmite” muy poca fuerza, y es posible mantener un vehículo detenido aunque el motor se encuentre girando, pero a medida que se incrementa su velocidad, la “fuerza” que transmite el torbellino es capaz de desplazar el vehículo con normalidad y a plena potencia del motor.

Lógicamente en este punto radica una de las características más peculiares sobre este tipo de caja de cambios, y hace que en el mundo de la competición o de los aficionados a conducir, esta transmisión se valore con cierto desdén, ya que si lo analizamos cuidadosamente, enseguida se comprende que cuando un coche se está desplazando a cierta velocidad y queremos que “acelere” con toda la fuerza o potencia disponible, primero se “pisa” el acelerador, y en respuesta el motor incrementa bruscamente su “par motor” o “fuerza del giro” que luego se convierte paulatinamente en un aumento de la velocidad.

Cuando la transmisión es de tipo “rígido” como en un cambio manual, el conductor puede “sentir” de forma inmediata ese incremento brusco en la “fuerza del motor” respondiendo a su acción sobre el acelerador, pero sin embargo cuando la transmisión es hidráulica, para que haya un incremento de fuerza apreciable, primero tiene que aumentar la velocidad de giro dentro del convertidor de par, para que este pueda generar el incremento de “fuerza” sobre las ruedas, y esto supone un relativo “desfase” desde que se acciona el acelerador, hasta que el conductor pueda “sentir” la respuesta.

A continuación del convertidor de par, se encuentra propiamente la “caja de engranajes”, pero en este caso ya no se utilizan los pares de engranajes propios de la caja manual, sino que se disponen varios conjuntos de engranajes “epicicloidales”, que se combinan entre sí a lo largo de un eje único. Estos conjuntos de engranajes están formados por un engranaje central denominado “planetario” que gira sobre el eje. Sobre este engranaje se colocan otros tres o cuatro engranajes más pequeños que lo rodean engranados sobre él formando un conjunto combinado que se denominan “satélites”. Sobre el contorno exterior de los satélites, se dispone a su vez una “corona” engranada sobre ellos, de forma que todo el conjunto puede admitir distintas combinaciones de movimiento según se vayan bloqueando unos elementos u otros.

En un caso podemos “bloquear” el planetario central, y entonces al aplicar un giro a la corona exterior, se arrastra el conjunto de satélites que quedan obligados a rodar sobre el planetario inmóvil. Si bloqueamos el movimiento de la corona exterior, un giro del conjunto de satélites, produce el arrastre del planetario central y viceversa. Así mismo si se bloquea el giro del conjunto de satélites, el impulso del planetario arrastra la corona en sentido inverso o viceversa.

 El Funcionamiento de un sistema epicicloidal

 Cuando se combinan entre sí de forma adecuada varios conjuntos epicicloidales, y se actúa selectivamente bloqueando las combinaciones posibles, junto con la configuración de sus tamaños y número de dientes, se consiguen distintas “relaciones” de desmultiplicación, que son controladas con un sistema de válvulas hidráulicas que actúan en función de velocidad y presión, de una forma completamente automática.

El cambio de doble embrague

Este es a grandes rasgos el panorama de los sistemas de cambios de marchas, tradicionales, hasta que se han empezado a generalizar los de doble embrague. Este tipo de sistemas en cuanto al uso, se parecen al “automático” porque desaparecen el pedal de embrague y la palanca de cambios. Sin embargo aparecen una “levas” en el volante con las que se pueden cambiar las marchas o bien dejar que el sistema opere de forma automática.

A pesar de esa apariencia similar a un cambio automático tradicional, y que la moda de “levas en el volante” se ha exportado a los cambios automáticos tradicionales, el mecanismo interno no tiene nada que ver con ellos, ya que se trata de cajas con un sistema de “pares de engranajes” y “embragues” de fricción, lo que supone una transmisión “rígida”, que ha conquistado el mundo de la competición de forma casi exclusiva.

Dada la extensión del tema prefiero aplazar el resto, para desarrollar en la próxima entrada una explicación más completa.

Nota: Las imágenes y referencias que acompañan al artículo se han recopilado desde internet  por medio de Google, y son propiedad de sus respectivos autores.

LA ESCALA DEL UNIVERSO

REPESCANDO EL  BLOG

El día 23 de Junio del año pasado se subió la última entrada disponible en este “blog”, lo que supone unos diez meses sin nueva actividad en el mismo. Sin embargo la página ha seguido registrando visitas con un rito destacable, de forma que incluso en este periodo de diez meses se han registrado tantas visitas como a lo largo de toda la época anterior.

En el último periodo resulta destacable el número de visitas procedentes de Sudamérica y en particular de Méjico y Argentina. A la vista de las entradas consultadas, destacan los temas sobre “AutoCAD” y particularmente algunos relacionados con el manejo de los sistemas de coordenadas en el espacio, lo cual representa para mí una gran satisfacción, ya que confirma el relativo acierto de la idea inicial para su desarrollo.

Por otra parte me gustaría agradecer la confianza y respaldo que suponen estas visitas, y desde luego, quiero animar a cualquier visitante que tenga el menor interés por aclarar alguna duda, para que pueda hacer una consulta directa con toda confianza, ya sea por email u otro medio, manifestando el compromiso de atenderla con mucho gusto.

Dentro de esta nueva etapa que se inicia para seguir ampliando el “blog”, voy a separarme del ámbito estrictamente profesional, para abordar otros temas que puedan resultar más curiosos o divertidos, y sin ir más lejos voy a tratar en esta ocasión sobre la “cosmología”, que para mí siempre ha resultado muy interesante y atractiva. El tema que quiero desarrollar a continuación se refiere a la “escala” y los “tamaños relativos” dentro del “Universo”.

 LA ESCALA DEL UNIVERSO

Cuando se escuchan referencias en la prensa general, sobre algunos aspectos del “universo”, las distancias y tamaños se encuentran en escalas tan poco habituales, que resultan demasiado frecuentes los errores sobre el número de “ceros”, miles por millones o viceversa, todo ello a su vez complicado con otro par de circunstancias, como la diferencia entre los “billones”, (nueve ceros) en el ámbito americano y (doce ceros) en el europeo, o el hecho de que la gente del mundo del periodismo tenga en su mayoría una formación de “letras”, que adolece de cierto desinterés hacia los números, las fórmulas y las matemáticas.

Por otra parte cuando se habla de referencias en el “universo”, los números que representan las distancias y los tamaños son tan grandes que en seguida pierden cualquier significado relativo entre sí. La mayoría de la gente “desconecta” su capacidad intelectual para interpretar ninguna comparación entre esas magnitudes, y automáticamente se incorporan a un fondo de saco donde se almacenan “cosas grandes y lejanas”, desconectadas completamente del mundo cotidiano.

Uno de los mecanismos básicos que nos sirven para asimilar y comprender tamaños, distancias o magnitudes, es obviamente la “comparación” con referencias que nos resultan más conocidas o habituales. Como ejemplo se puede citar las distancias en los desplazamientos, ya que si estamos habituados a realizar de forma cotidiana un desplazamiento de 50Km, es inmediato saber que un nuevo desplazamiento de 100Km, va a requerir el doble de tiempo o de velocidad, aunque sigue siendo asequible con los mismos medios, pero sin embargo otro desplazamiento de más de 500Km, requiere unos recursos diferentes ya sea por tiempo o por medio de transporte.

Obviamente el razonamiento anterior se mueve en al ámbito de la perogrullada, pero sin embargo creo que son ese tipo de asociaciones y mecanismos básicos, los que precisamente se pierden irremisiblemente cuando se habla de distancias en el rango del “universo”.

Si hacemos un pequeño repaso de distancias y magnitudes significativas, podemos recordar que la propia dimensión o tamaño total del universo, se ha establecido después de las últimas teorías, (materia y energía oscuras) en unos 13.800 millones de años-luz (AL). Por otra parte el tamaño de la galaxia en la que nos encontramos, “La Vía Láctea” es de unos 100.000 años-luz. La propia Vía Láctea está considerada como galaxia gigante, lo que supone decir que es una de las grandes, que a su vez mantiene vinculadas mediante órbita gravitatoria, diversas galaxias enanas de un tamaño bastante menor. Como referencia de tamaños, la mayor galaxia conocida IC-1101, tiene unos seis millones de AL (años-luz).

Además de la Vía Láctea, Andrómeda es otra galaxia similar y cercana aunque con el doble de masa, que se desplaza en dirección a la nuestra por lo que en un futuro ambas tienen que encontrarse y chocar entre sí, lo cual supone que las dos se juntan y mezclan alterando su forma por la influencia de los campos gravitatorios mutuos, para finalmente formar una sola entidad con un campo gravitatorio único. La distancia actual entre ambas es de unos 2,2 millones de AL (años-luz).

La unidad de distancias que estamos manejando, es el “año-luz” o lo que es lo mismo, la distancia que recorre la luz durante un año. Dado que según los principios básicos de la física, esa velocidad es constante bajo cualquier circunstancia, resulta una definición oportuna ya que relaciona distancias y tiempos a escala cósmica, y si consideramos que el propio universo se expande a la velocidad de la luz, tenemos que coinciden su edad y tamaño.

Si queremos traducir esa distancia a Kilómetros, solo hay que multiplicar el tiempo de un año por la velocidad de la luz en Km, es decir: [300.000Km/s x 365dias x 24 horas x 60 mns x 60 seg.] = 9.460.800.000.000 o bien: 9,4608 x 10 ^ 12, un número bastante grande, por lo que aparecen los exponentes, y por aquí es donde gran parte de la gente “se desconecta” de este tipo de magnitudes, y las deja en algún fondo de saco formando un auténtico batiburrillo.

Si ahora recordamos la configuración del sistema solar, este está compuesto por una estrella (Sol), que contiene la mayoría de la masa, cuatro planetas interiores de estructura rocosa, pequeños y con orbitas muy cortas, luego un cinturón de asteroides y a continuación otros cuatro planetas (jovianos), con una estructura gaseosa, mucho más grandes y pesados, que describen orbitas bastante amplias y alejadas de la estrella. Después se encuentra una serie de “planetas enanos”, (entre los que se ha incluido últimamente a Plutón) que describen orbitas muy irregulares, y continúa con una amplia zona exterior conocida como cinturón de Kuiper que recuerda al cinturón de asteroides, aunque también contiene cometas de periodo corto.

Esta última región ya es bastante más extensa que la zona barrida por las órbitas de los planetas, pero aun así, todavía hay que considerar otra región más externa y grande, conocida como nube de Oort, que es la que aloja los cometas de periodo largo, (más de 200 años) es decir objetos congelados y muy fríos, compuestos de polvo y hielo, que describen orbitas alrededor del Sol, pero tan alejadas y/o excéntricas que tiene periodos de más de doscientos años.

Esta nube de Oort, que puede considerarse como el paquete que contiene a todo el sistema solar en su centro, a pesar de no tener unos límites muy definidos se considera comprendida entre 10.000 y 100.000 UAs (Unidades Astronómicas) del centro. La “Unidad Astronómica” es también otra medida de distancias, y se define como la distancia media entre la tierra y el Sol. La equivalencia con el Año-Luz es de aproximadamente 63.000UAs por cada AL, por lo que podríamos decir que el sistema solar tiene un diámetro exterior de aproximadamente dos años-luz.

LA EQUIVALENCIA.

En mi opinión, la mejor manera de asimilar fácilmente todo ese repertorio de magnitudes y distancias, es la de establecer una equivalencia global o comparación con un entorno que nos resulte más familiar o conocido.

En este caso podemos asociar el tamaño del universo de 13.800 millones de AL, con la mayor parte de la superficie de nuestro planeta, ya que un cuarto del meridiano terrestre se define como una distancia de 10.000 kilómetros, y esto supone que recorriendo 13.800 Km, se puede alcanzar casi cualquier punto del planeta, salvo un círculo limitado alrededor de las antípodas.

Una vez establecida la equivalencia entre “un millón de años luz” y “un kilómetro” lo que es parecido a comparar el tamaño de todo el universo con el del planeta, podemos pasar a revisar el repertorio de magnitudes y distancias que ya habíamos visto, y nos encontramos que el tamaño de nuestra galaxia sería de unos “cien” metros, lo que equivale a una manzana de edificios de una ciudad como Madrid o Barcelona, la galaxia más grande conocida, tendría unos 6 Km, como la Casa de Campo de Madrid, y la distancia que separa a La Vía Láctea y Andrómeda pasaría a ser de 2,2 Km, o aproximadamente la separación entre “Cibeles” y “Nuevos Ministerios”.

 

 

 

Dentro de esta comparación, todo el sistema solar tendría aproximadamente 2mm de diámetro, más o menos como la cabeza de un alfiler, y también resulta sugerente establecer el paralelismo entre la estructura y agrupación de las distintas ciudades, con los cúmulos y supercúmulos de galaxias, o bien las imágenes captadas desde espacio sobre las áreas urbanas iluminadas de noche, y las imágenes artificiales, con esa estructura filamentosa y llena de nudos, que representa la distribución de la materia en el universo.

 

 

MEDICIONES y PRESUPUSTO ( y IV )

En la última entrada, se había formulado un sistema novedoso para elaborar “avances” de presupuestos de edificación, mediante un formulario incluido en una hoja de cálculo que se adjuntaba, basada en una escala de precios de tipo “logarítmico”, y una lista de elementos o componentes del edificio según la estructura de las “Normas Tecnológicas de Edificación” (NTEs).

Considerando que a primera vista esa hoja de cálculo así como el método propuesto puede resultar algo confuso y extraño, se ha optado por tratar de desarrollar algo más la explicación de su funcionamiento y utilización, así como el interés para desarrollar una variante, adaptada a la obra civil que pueda servir para estimar un avance sobre los costes de un proyecto de urbanización.

Probablemente la consideración que puede resultar más extraña en esta propuesta, es el hecho de adoptar una “escala logarítmica” en sustitución del sistema de precios normal.

El valor de los precios.

En este sentido, hay que tener en cuenta que la idea o el concepto del “precio de las cosas”, resulta tan básica y elemental, que se encuentra automatizada por nuestra inteligencia, mediante mecanismos de comparación intuitivos, que permite valorar el precio de cada cosa comparando el valor del número que lo representa, con el de cosas similares o equivalentes ya conocidas, o que consultamos oportunamente.

De esta forma es prácticamente automático decidir la opción más barata o ventajosa, simplemente identificando aquel número que es mayor o menor, y también permite apreciar de una forma rápida e intuitiva cuánto y cuando se aleja un precio de un conjunto de valores similares o parecidos.

No obstante si analizamos esos mecanismos con algo de detenimiento, es fácil entender que están vinculados con las operaciones aritméticas de carácter elemental como la “comparación” o las “sumas y restas”, aunque si bien para realizar las operaciones aritméticas siempre es necesario manejar el valor numérico completo de cada precio, presumiblemente los mecanismos intelectuales operan de forma diferente, ya que normalmente tardamos en “retener” con la memoria el valor completo de cada precio, pero recordamos con cierta facilidad cual era el “mayor/menor”, o bien una aproximación relativa en una secuencia “grande/pequeño”.

Probablemente esos mecanismos intelectuales son los mismos que operan cuando los comerciantes promocionan sus ofertas con precios que se quedan ligeramente antes de incrementar una nueva cifra en el valor del precio (..99, ..95, ..990, … ) ya que recordamos más fácilmente si un precio se encuentra por debajo o por encima del “límite virtual” constituido por el valor redondo o salto de cifras: decenas, centenas, miles, etc.

Todo el mundo tiene perfectamente claro el mecanismo del “regateo”, consistente en alcanzar un acuerdo entre dos partes, vendedor y comprador, en la que se intercambia algún objeto o mercancía por dinero, siendo el propio “acuerdo” el que establece la cantidad de dinero que se intercambia, y constituye obviamente el “precio” efectivo y real de la misma.

Lógicamente dentro del regateo, los “precios iniciales” como valor numérico, no tienen la menor importancia, siendo mucho más decisiva la capacidad para ir acercando esos valores o posiciones mediante una “modificación”, que puede ser más o menos rápida o hábil, pero que en ultima instancia solo depende de la voluntad y el interés de cada una de las partes por llegar al acuerdo.

Como resumen podemos decir que en el regateo, es la capacidad de aproximación al punto de equilibrio, tratando de discernir el “interés y capacidad” de la otra parte, en función de los “tanteos” y “aproximaciones” que se realizan. Obviamente esa aproximación se hace mediante unos valores numéricos, cuya cuantía es intrascendente en sí misma, pero que tienen un cierto valor como “indicio” del posible acercamiento, o punto de partida para la aproximación y el ajuste.

Teniendo en cuenta las consideraciones anteriores, parece lógico pensar que la gran cantidad de datos numéricos que se incluyen en el presupuesto de un proyecto, si bien es imprescindible como registro y respaldo de las condiciones del contrato de obra, sin embargo en otras circunstancias, acarrea un exceso de valores numéricos, que en cierta medida dificulta el tipo de pequeños tanteos y aproximaciones propias del “regateo”, que desarmarían un conjunto, que cuando pierde su propia coherencia interna, se desmorona como un castillo de naipes.

La regla de cálculo y los logaritmos

Aquellos que hemos llegado a conocer y manejar la “regla de cálculo”, cuando aún no se usaban las calculadoras electrónicas, disponemos de una mayor facilidad para valorar la utilidad práctica de los “logaritmos”. Sin embargo para las generaciones actuales, oír hablar de ellos suena más bien a “cosas de gente rara”, o a lo sumo a una tecla que se encuentra disponible en algunas calculadoras.

El concepto de “logaritmo” se explica en matemáticas o bien en la Wikipedia, y es introducido en el siglo XVII por Napier. Seguramente la propiedad más característica es el hecho de que el logaritmo de un “producto” de dos números, es igual a la “suma” de sus logaritmos. Esa propiedad es la que se usa en las reglas de cálculo, para disponer un par de escalas iguales, que pueden deslizarse entre sí, y que se gradúan de tal forma que la posición o longitud de cada número es proporcional a su logaritmo. De esta forma cuando queremos multiplicar dos números, solo tenemos que situar el origen de la escala deslizante en la posición del primer número, y a continuación leyendo el segundo número sobre la que ya hemos deslizado, tenemos alineado con este, el numero que representa la suma de longitudes de ambos segmentos y que por tanto es el “producto” de los dos números.

Otra de las utilidades destacable de los logaritmos, es la de representar con un conjunto de valores relativamente limitado, un repertorio de magnitudes y valores que pueden ser muy dispares entre sí como sucede en el caso del sonido. La escala que utilizamos normalmente para representar los niveles de ruido, se define en “decibelios” y varía entre 10 y 120. No obstante hay que pensar que lo que representan estos valores es en realidad el “tamaño” del número que corresponde a la “intensidad” del sonido medida en las unidades habituales de energía, o lo que es lo mismo un sonido de 20 decibelios tiene una energía que se representa con un número de dos cifras, y un sonido de 120 decibelios, necesitaría un número de doce cifras.

Obviamente si tenemos que hacer cálculos entre números de dos o tres cifras combinados con otros de más de diez, la propia “precisión” en la determinación de magnitudes, y el consecuente manejo de los errores de precisión, conduce a cálculos numéricos laboriosos con poco interés práctico. Eso se evita manejando los “logaritmos de la intensidad”, en lugar de los propios valores de la intensidad, con lo que se reduce considerablemente esa dispersión, aunque también a costa de que su “significado” pasa a ser relativamente opaco y poco intuitivo.

El modelo en la Hoja de cálculo

Un modelo de “avance”

En el caso de los precios de un presupuesto se pueden encontrar ciertos paralelismos, si consideramos que una obra civil puede alcanzar los diez  millones de euros (7 cifras) y sin embargo el precio de un metro cúbico en desmonte de tierra puede ser solamente de uno o dos euros (1 cifra). Por otra parte cuando modificamos ligeramente un determinado precio, como se hace en el regateo, estamos acostumbrados a pensar en términos de “porcentaje”, ya que de esta forma se valora mejor la cuantía relativa del cambio, ya que obviamente no es lo mismos rebajar un euro sobre una mercancía con un valor de diez que sobre otra de cien.

El modelo que se propone, trata de reducir la cantidad de datos que maneja, con el fin localizar más fácilmente la contribución de cada una de las partes en el resultado final. Eso nos lleva a establecer una lista cerrada, similar al resumen de capítulos, aunque subdividiendo cada uno en las partes más características, tratando de no sobrepasar los cuatro o seis en cada uno. Eso supone que los índices para valorar esos componentes deberán estar sobredimensionados en compensación con el resto de elementos que no son incluidos en la lista. Por otra parte la lista de capítulos se organiza sobre las partes o componentes físicos de la obra al estilo de las NTEs, en lugar de hacerlo sobre los “oficios” o tareas de la construcción.

En relación con los precios, naturalmente se descartan las exhaustivas descomposiciones de: materiales, mano de obra y maquinaria, pero además de eso se considera conveniente reducir en lo posible la dispersión de valores que suponen las cifras de los distintos precios, ya que cada cifra “concreta” no es demasiado importante en sí misma, y por otra parte también parece oportuno que pueda admitir una cierta variación porcentual sin ser relevante en el resultado.

Dentro de la lista cerrada, cada componente se caracteriza con una “magnitud” específica, (m3 / m2 / ml / ud ..) y a través de la medición correspondiente se cuantifica su intervención en el presupuesto. Las distintas alternativas dentro del mismo componente, pueden ser compatibles dentro un presupuesto, pero tampoco es necesario que estén todas presentes, lo cual se logra anotando o suprimiendo en la casilla de medición, el valor o cuantía oportuna.

La especificación correspondiente al precio de cada componente, ya se encuentra incluido en la hoja de cálculo, por lo que al anotar la medición se presenta de manera inmediata el importe del apartado y el capítulo. En esta característica radica sobre todo la singularidad del sistema, ya que en lugar de emplear el precio correspondiente a ese componente concreto, se utiliza un sistema de índices o categorías, con un significado diferente.

La categoría del precio se encuentra anotada en una columna a la izquierda de la medición. Está definida por un “número entero de dos cifras”, que a su vez contribuye a reducir notablemente la cantidad y dispersión de valores numéricos respecto a lo que se utiliza habitualmente. Este índice o categoría es el logaritmo del precio unitario correspondiente, definido sobre una “base” específica, con el valor: “1,1220185”, y redondeado al entero más cercano. Al utilizar logaritmos en sustitución del precio normal, el importe de la partida se calcula como el producto de la “medición”, por esa “base”, elevada a la “potencia” del número entero de la categoría.

Aunque inicialmente puede parecer bastante extraño el uso de “logaritmos”, en sustitución de los precios normales, realmente lo que se esta haciendo es “reducir” drásticamente el repertorio de valores que se emplean, sustituyendo el conjunto continuo  de cifras que se encuentra entre 1€ y 89.125,5€ por el conjunto de números enteros de dos cifras que va desde “0” hasta “99”, ya que:  1,1220185 ^ 99 tiene precisamente un valor de 89.125,5€.

De esta forma solamente se emplean como “precios válidos” para cualquier componente, aquellos valores que coinciden con una “potencia” entera de la base establecida, y lógicamente se encuentran separados entre sí por una cuantía relativa respecto al anterior que siempre es el 12,20185%. Este mecanismo asegura precisamente que un incremento de una categoría en cualquier componente, siempre tiene una incidencia aproximada del doce por ciento sobre el valor resultante, con independencia de cuál fuera el valor inicial. Con el fin de facilitar el uso práctico de la hoja de cálculo, se incluye en el margen izquierdo la cifra en precio tradicional que corresponde a la categoría de cada componente.

La elección de la base, podría hacerse con cualquier otro número menos complicado como 1,10 – 1,15 ó 1,20, con lo que se obtendrían unos incrementos del 10%, el 15% ó el 20% en cada aumento de categoría, pero se ha preferido adoptar la “base”, de tal forma que un aumento de veinte (20) categorías, incrementa un orden de magnitud o multiplica por diez (x10) el valor inicial. Establecido este requisito, si hacemos un cálculo elemental con potencias, podemos ver que esa base tiene que ser la “raíz” veinteava de 10. Es decir “base” = 10 ^ (1/20)  = 1,1220185. Con esta base, además de ese incremento singular, también se consigue que el aumento de “seis” categorías, duplique el precio inicial.

El empleo de la escala logarítmica en si mismo, NO limita el uso de números enteros, por lo que realmente la definición de categorías podría hacerse perfectamente con los números ampliados a una o varias cifras decimales, pero en ese caso el modelo perdería una parte significativa de su propia identidad, ya que uno de los objetivos, es la reducción drástica de datos numéricos al mínimo imprescindible, contribuyendo a que sea más fácil, tener una idea global del conjunto. No obstante en la hoja de calculo, se incluye al final de la misma un resumen por capítulos, en la que junto al importe de cada uno, se anota el valor de la “categoría” equivalente a ese importe, esta vez, redondeada con una cifra decimal. Este cálculo partiendo del importe responde obviamente a la expresión: “ cat = log(Importe) / log 1,1220185 ”

Si hubiera que definir las características intrínsecas de este sistema de una forma general, habría que decir que se trata de un modelo de tipo discontinuo o “discreto” hablando en términos matemáticos, y que esa “discontinuidad” se debe no solo a la aplicación de los precios a través de una escala logarítmica, sino también por el hecho de establecer una lista de componentes “cerrada” reducida solo a los más significativos, que a su vez son “valorados” con la holgura suficiente para compensar aquellos otros que no se incluyen, ya sea por estar muy vinculados con los principales o por tener una incidencia poco significativa en el conjunto del presupuesto.

En los párrafos anteriores, se incluye un enlace que permite “descargar” un archivo de hoja de cálculo en el que se desarrolla el sistema comentado. El uso de las hojas es elemental, y basta con “anotar”, los valores oportunos, comenzando por los datos de cabecera, y luego en la columna de la medición, los valores correspondientes, solo en la casilla del componente que se pretende valorar, dejando las demás en blanco. Una vez anotado cada valor, inmediatamente aparecen los resultados en las casillas de los importes. Además de la medición y los datos anotados en las casillas con fondo gris, se pueden modificar las “categorías” escribiendo directamente, aunque en este caso la conveniencia de bloquear los datos iniciales o no, podría depender del uso que se quiera hacer, ya sea como control o comparación de otros resultados, o bien como avance u orientación sobre las magnitudes aproximadas de un futuro proyecto.

Con el fin de facilitar y flexibilizar el uso de la hoja, siempre se muestra en la columna de la izquierda el valor unitario del importe que corresponde a cada componente. La hoja se facilita “protegida” con todas las casillas bloqueadas excepto las que deben recibir los datos, con el fin de evitar la pérdida accidental por sobre-escritura, pero tampoco se establece ninguna contraseña, por lo que la hoja puede ser abierta desde el menú de herramientas. También se “hacen constar” en la cabecera los datos del titular de su “propiedad intelectual”, y la especificación de la licencia “Creative Commons” que regula el uso de la misma en la modalidad de “citar al autor”, permitir solamente “usos NO comerciales”, y la obligación de “publicar en las mismas condiciones” cualquier nuevo desarrollo basado en este.

 

MEDICIONES y PRESUPUSTO ( III )

En el ámbito de las obras de “iniciativa pública”, hay que tener en cuenta que el presupuesto del proyecto, siempre es un documento que forma parte del contrato de la obra, y cualquier desacuerdo, imprevisto, o diferencia, como fijar un nuevo precio contradictorio, certificar acopios de materiales, o hacer una liquidación parcial de la obra, requieren conocer y manejar no solo el importe total de la obra, de los capítulos y de los precios unitarios de cada partida, sino también mantener toda la coherencia interna con los elementos que forman los precios del proyecto, (mano de obra, materiales, costes indirectos .. etc)

No obstante, cuando lo que se pretende es conocer el alcance o importe aproximado de un presupuesto de ejecución, parece oportuno pensar que la cantidad de datos numéricos que se manejan en un presupuesto ordinario, resulta desproporcionada ya que si indagamos con un poco de habilidad dentro del contenido, enseguida vemos que casi siempre, son solo unas cuantas partidas las que, ya sea por su magnitud o por su valor unitario, configuran la parte más significativa del presupuesto.

Lógicamente ese tipo de partidas o unidades más singulares, dependen del tipo de proyecto y sus características particulares, y normalmente son esas características, las que a su vez sirven para configurar distintos tipos o sistemas de “índices”, con los cuales se elaboran modelos o proyecciones para estimar avances de coste o presupuesto.

El síndrome de los céntimos y el contable

Uno de los primeros avances de la contabilidad entre la época medieval y el renacimiento, son las tablas de doble entrada, en las que un cierto conjunto de cifras de contabilidad, se ordenan distribuidas en filas y columnas, que luego sumadas en ambos sentidos deben proporcionar un resultado final idéntico. El doble resultado es siempre una comprobación indirecta de la integridad de las operaciones de forma que esa “redundancia” en los datos o en su agrupación, permite asegurar que las operaciones están realizadas correctamente. En ese sentido cabe mencionar la gran diferencia que ha supuesto la informática, ya que ahora la integridad de las operaciones queda asegurada por el entorno informático y el sistema operativo, y el riesgo de errores queda limitado solamente a la integridad de los propios datos.

Cuando se manejan cantidades importantes de datos con operaciones redundantes sobre ellos, el trabajo de localizar pequeños errores o discrepancias puede ser bastante engorroso. Supongo que todos recordamos algún caso donde el responsable de un sistema de “contabilidad” se encuentra agobiado tratando de localizar “unos céntimos”, que solo por “incordiar” le habremos ofrecido compensar o sufragar de nuestro propio bolsillo. Evidentemente el problema es la existencia de la diferencia dentro del sistema redundante y no la cuantía de esta.

Con independencia de las redundancias y la seguridad que representan, el simple hecho de tener que manejar los valores y precios de “todas las unidades de obra” que componen un proyecto, resulta no solo laborioso sino también propenso a errores y olvidos, por lo que enseguida surge la idea de establecer “referencias objetivas” de forma que al revisar y comparar una “lista” de referencia, se tenga una seguridad razonable de que esta está completa, aunque también se puede considerar la alternativa de eliminar una gran parte de esa especie de “ruido de fondo” que representan la mayor parte de los datos que intervienen.

Las Bases de Precios de la construcción

Al considerar la idea de una “lista completa” como referencia, También hay que tener en cuenta que en los proyectos de edificación, esta es mucho más larga y numerosa que en la obra civil, y al mismo tiempo sus magnitudes e importes económicos son mucho menores.

Por otra parte, también hay que mencionar los esfuerzos de estandarización que han supuesto las “bases de precios” de la construcción, que se han ido desarrollando paralelamente a las aplicaciones informáticas dedicadas a la elaboración de presupuestos. En este terreno algunas bases de datos se han llegado a convertir en una referencia general, aceptada por todos los profesionales de la construcción, como las elaboradas por el colegio de arquitectos técnicos de Guadalajara, la de la Junta de Andalucía, o bien otras muchas.

Una característica propia de las bases de precios, además de la vinculación imprescindible con aplicaciones informáticas, es la ingente cantidad de unidades de obra que contienen. De hecho las versiones que se publicaban hace ya algunos años se editaban con versión informática y/o en papel, ocupando varios tomos, pero finalmente se han vuelto tan extensas que la versión en papel sería totalmente inmanejable.

Evidentemente la localización de las distintas unidades se realiza a través de las herramientas de búsqueda en una aplicación informática, y a su vez esta, garantiza la seguridad e integridad de las operaciones numéricas, y también la coherencia interna y todas las redundancias de los componentes que forman el precio cuando se efectúa cualquier tipo de ajuste.

En todos los casos esas bases de datos se organizan mediante una estructura o subdivisión en capítulos que es conocida en alusión al “Instituto Torroja de la Construcción”, que es probablemente la primera institución de este país que se dedica al estudio, investigación y difusión en el sector, y que en relación a este tema propone una ordenación de la lista, con arreglo a los diferentes “oficios” o “trabajos” que se desarrollan dentro de la obra. De ahí capítulos tan característicos, como “Albañilería” o la separación entre “Carpintería metálica” y “Carpintería de madera”.

En contraposición con esa estructura que habitualmente se denomina del “Torroja”, aparece a finales de los años 70s, la publicación de las Normas Tecnológicas de la Edificación o por sus siglas: NTE, las cuales constituyen un trabajo importante de iniciativa pública (Ministerio de la Vivienda/MOPU), encaminado a estandarizar o constituir una “referencia objetiva” en el sector de la construcción. Ese repertorio de Normas, presenta a su vez una estructura organizada en tres niveles Capítulo–Subcapítulo–Norma, pero que en vez de organizarse alrededor de los oficios o trabajos de la construcción, se organiza con arreglo a las distintas “partes físicas” o elementos que configuran el edificio: Cimentación, Estructura, Fachada, Cubierta .. etc.

Una propuesta diferente.

Una vez revisado el panorama de las Bases de Precios y evocando las consideraciones que se hacían en su momento sobre los sistemas de módulos de los colegios de arquitectos, parece evidente que existe una gran contradicción en el hecho de que para calcular en primera aproximación aunque con rigor suficiente, el coste de ejecución de un proyecto, sea necesario operar con la ingente cantidad de datos numéricos o de unidades de obra que contienen las bases de precios, ya que como se ha mencionado, normalmente son solo unas pocas unidades significativas, las que configuran la mayor parte del presupuesto.

Esta última consideración nos devuelve en la práctica al hecho de que la forma de “aproximar” un presupuesto de ejecución en las fases iniciales del proyecto, va ha depender mucho de la habilidad o experiencia de cada proyectista, para decidir oportunamente cuales son las partidas más significativas en detrimento del resto, y poder evaluar estas con una aproximación suficiente respecto al conjunto.

Para poder formular un nuevo modelo, en este caso se propone establecer en primer lugar, una lista cerrada de componentes, para lo que resulta oportuna la estructura que contienen las NTEs ya que subdivide cualquier edificio en sus partes o elementos físicos. Por otra parte el nuevo modelo, pretende considerar para cada uno de esos “elementos” o partes más significativas, solamente unos pocos “tipos” con sus correspondientes valores de referencia que permitan evaluar la repercusión económica de los casos más comunes. Evidentemente el valor económico que se asigna a los componentes no puede ser estrictamente el de las unidades de obra directamente involucradas en su elaboración, ya que es preciso “compensar” la repercusión de los elementos que no consideramos en esa lista.

Los valores de referencia de estos componentes, normalmente se encontrarán separados por una cuantía apreciable, para que su agrupación por categorías resulte útil y significativa, ya que si se establece un repertorio de opciones numeroso y casi continuo en sus valores, la elección se vuelve laboriosa y confusa. Por otra parte esa separación relativa de valores, también esta relacionada con la precisión global del sistema, ya que si como ejemplo, adoptamos solo valores separados entre sí por una cuantía del veinte por ciento (20%), al manejar cierto número de elementos, las diferencias se reparten estadísticamente, y podemos considerar perfectamente que la precisión global, va ser al menos del diez por ciento, que aunque no sería aceptable en un presupuesto cerrado, sí puede resultar útil en las fases iniciales y de avance.

Estas consideraciones nos permiten pensar que en realidad tampoco es necesario manejar estrictamente los valores de los precios, ya que estos pueden ser sustituidos por una escala discontinua, donde solamente figura un número limitado de valores, ordenados mediante un intervalo de separación fija, con lo que bastaría referirse al numero de orden en esa lista, para tener perfectamente identificado cada valor.

Si formulamos una lista discontinua mediante un intervalo del 20%, los valores de esa lista pasan a ser: 1 – 1,2 – 1,44 – 1,728 – 2,0736 … o lo que es lo mismo: 1 – 1,2 – 1,2*1,2 – 1,2*1,2*1,2 – … – 1,2 n. es decir que el valor de una determinada categoría en esa lista, pasa a ser igual a la base 1,2 elevada a un exponente que es el número de orden del intervalo correspondiente. Esto que inicialmente puede resultar extraño, no es mas que una escala de tipo logarítmico, similar a la de los “niveles de ruido” en acústica, o  la de niveles del “ph” en química.

Una de las ventajas a considerar en este sistema, es el hecho de que los valores que se manejan en sustitución de los “precios” normales, son solo un repertorio de números enteros de dos cifras, que además de no tener un significado aparente en si mismos, permiten reducir considerablemente la cantidad de cifras empleadas en el cálculo y consecuentemente el riesgo de “error” en los datos o en su manipulación.

A la hora de elegir la “base” más adecuada para establecer el intervalo de precios oportuno, podemos adoptar un número arbitrario, como por ejemplo un incremento del 15% ó el 20%, que en primera aproximación parece un compromiso razonable con la precisión del sistema, pero también podemos hacer un calculo inverso para elegir una base del precio de tal forma que un numero determinado de intervalos o incrementos, permitan asegurar un “múltiplo” del precio inicial, como puede ser el “doble”, o diez veces mayor.

Si decidimos por ejemplo, incrementos del doble del precio inicial con un aumento de cinco categorías, el valor de la base sería entonces la raíz quinta de dos, es decir “1,148698”, que se encuentra próximo al 15% en cada intervalo, y si optamos por incrementar diez veces el valor con un incremento de quince categorías, la base tendría que ser la raíz quinceava de diez, o lo que es lo mismo “1,197860” que se encuentra próxima al 20%.

Con el fin de suministrar un ejemplo práctico y algo mas tangible de todo lo que se acaba de exponer, se dispone a continuación un enlace que permita bajar y practicar sobre una “hoja de cálculo” elaborada en EXCEL, que contiene un formulario para calcular el avance de un presupuestos en el ámbito de la edificación, solo con el hecho de anotar la magnitud de cada elemento en la columna correspondiente, frente a la opción prevista en cada caso.

Formulario de la HOJA de CALCULO.

MEDICIONES y PRESUPUSTO ( II )

En la entrada del día anterior, se ha desarrollado una exposición general sobre la elaboración de mediciones y presupuestos en los proyectos de arquitectura, su trascendencia y algunos aspectos prácticos sobre su elaboración en los últimos años dentro del ámbito de este país.

En los últimos párrafos se mencionaba el sistema de módulos que se ha utilizado por los colegios de arquitectos, la incidencia que había tenido durante su vigencia, y la desregulación que han supuesto los cambios legislativos, y la aparición de ciertas “incertidumbres” o dudas sobre el “rigor” de los presupuestos  que se incluyen en algunos proyectos técnicos de iniciativa estrictamente privada.

 El sistema Medición-Presupuesto

Una de las características destacables del documento de mediciones y presupuesto, es la “ingente” cantidad de datos numéricos que puede acarrear, y en consecuencia la probabilidad de generar errores de todo tipo, y las dificultades para establecer sistemas de control “riguroso” sobre su integridad. Esta cantidad de datos numéricos que incluye el documento es lógicamente proporcional a la magnitud o volumen del proyecto, y en el caso de obras singulares o de cierto tamaño puede llegar a generar volúmenes de varios cientos de páginas de texto mecanografiado. No obstante en este sentido cabe mencionar las diferencias tradicionales entre los proyectos de “arquitectura” y los de “obra civil” que a su vez ilustran, amplían y refuerzan diferencias de criterios entre “arquitectos” e “ingenieros de caminos”.

 En el caso de los ingenieros de caminos y la obra civil, hay que destacar que tanto los proyectos técnicos como el ejercicio profesional, siempre han tenido una cierta convergencia con muchos elementos comunes en el sector de la construcción, y como ejemplo  es frecuente que las empresas constructoras operen tanto en “obra civil” como en “edificación”, los laboratorios de control de calidad operan indistintamente en ambos sectores, y de hecho si se examinan con detenimiento los procesos de “construcción”, se puede apreciar que la relación de “unidades de obra”, que intervienen en muchos casos son las mismas, (movimiento de tierras, cimentaciones, estructuras de hormigón y acero, pavimentaciones, redes e instalaciones de saneamiento o desagües, abastecimiento o fontanería, iluminación y alumbrado público, electricidad .. etc). De hecho las bases de precios y unidades de obra, o los programas informáticos suelen emplearse indistintamente en ambos sectores.

Una característica singular que sin embargo diferencia claramente a ambos, es la magnitud relativa en el momento de cuantificar cada proyecto. Como ejemplo cabe mencionar que en el caso de una “vivienda unifamiliar”, el número de unidades de obra diferentes que pueden ser necesarias para completar su construcción, puede llegar fácilmente a las doscientas, aunque difícilmente se va a totalizar un importe acumulado de más de ciento cincuenta o doscientos mil euros. Sin embargo en un pequeño proyecto de obra civil, como puede ser un tramo de carretera sencilla, probablemente el número de “unidades de obra” necesarias no supere el centenar, pero sin embargo la cuantía acumulada difícilmente bajará de los cinco o diez millones de euros, lo que representa que para una “unidad de obra” similar en ambos proyectos, se multiplica su incidencia o valor relativo, por un factor cien o doscientas veces mayor.

 Esta diferencia cuantitativa entre las magnitudes relativas de las unidades de obra habituales en ambos proyectos, además de otra diferencia frecuente, como es el hecho de que los proyectos de obra civil sean normalmente de iniciativa “pública”, y los de edificación en su mayoría de “iniciativa privada”, acaban motivando que se aborde esta parte del proyecto con criterios claramente diferenciados.

 Por un lado en el caso de los ingenieros de caminos y la obra civil, el criterio habitual, profundiza mediante un “análisis” más exhaustivo de los datos, para descomponer los elementos de cada unidad de obra (descomposición de precios .. ) cruzando valores comunes entre distintas unidades, que pueden poner de manifiesto incoherencias del conjunto, y añadir algunas redundancias que contribuyen a poner de manifiesto cierto tipo de errores, (cuadros de precios en letra y número .. etc. ). Esto lógicamente contribuye a incrementar notablemente el volumen de datos numéricos y también la carga de trabajo y esfuerzo sobre la elaboración del proyecto, aunque dado que la magnitud de estos, es bastante mayor que en el caso de la edificación y su carga de trabajo en aquellos aspectos como la originalidad, la innovación, y el diseño o la estética son sustancialmente menores, hacen que esa “hipertrofia” de datos numéricos dentro del presupuesto también se acabe convirtiendo en un factor de diferenciación que llega a utilizarse como respaldo de su propio “prestigio profesional”. 

Por el contrario en el ámbito de la arquitectura, por un lado la “reglamentación” de tipo administrativo es más relajada, ya que suele operar en el ámbito de la iniciativa privada, y por otro lado el “valor propio” del trabajo se tiende a ubicar en la vertiente gráfica, dando mucha más importancia a los factores subjetivos y discrecionales, como el diseño estético, la innovación, la originalidad etc. que están más vinculados a la identidad y al prestigio personal de cada arquitecto.

 En este sentido el documento del presupuesto, se aborda inicialmente de forma similar, elaborando una “medición” exhaustiva, que al igual que en la obra civil, se compone de una lista completa de unidades de obra, junto con la recopilación sistemática de datos numéricos necesarios para calcular sus magnitudes en el proyecto. No obstante a la hora de establecer los precios para esas unidades de obra, en lugar de profundizar en la elaboración de los precios a través de un “análisis” exhaustivo que incrementa desaforadamente el volumen de datos numéricos, se suele recurrir a través de cierta capacidad de “síntesis”, a tomar referencias “externas y objetivas”, que permitan aproximar o acotar un presupuesto final, mediante experiencias recopiladas con tipologías de casos similares.

 Esa recopilación de referencias y tipologías es lo que en última instancia constituyen y representan los sistemas de “módulos” empleados tradicionalmente en los colegios de arquitectos, que a su vez se convertían en “referencia objetiva” a través de esa estructura sindicada de la profesión del arquitecto.

 Consideraciones sobre los módulos.

En primer lugar hay que mencionar que la capacidad de regulación que pudieran ejercer los colegios de arquitectos a través de los sistemas de “módulos” han sido suprimidos completamente por la legislación general, en una primera etapa con la eliminación de las “tarifas de honorarios”, y finalmente con la aplicación de la conocida como Ley Ómnibus, que establece una determinada transposición de la legislación comunitaria.

En este sentido, cabe decir que los argumentos para la eliminación de los sistemas de “módulos”, han sido derivados de la “competencia” ya que supuestamente la capacidad de regulación que ejercían los “colegios de arquitectos”, generaba una falta de competencia entre los profesionales y consecuentemente un “encarecimiento” artificial de los servicios que desempeñaban.

Con independencia de que el razonamiento pueda parecer correcto a primera vista, la realidad es sustancialmente diferente, ya que la competencia para elegir un “arquitecto” concreto en detrimento de otro, casi nunca se ha dirimido por la repercusión económica del importe de sus “honorarios”. La competencia entre profesionales se ha ido desarrollando por otras muchas cuestiones y factores propios de la complejidad del trabajo, cuya valoración de “calidad” tiene un marcado carácter “subjetivo” a diferencia de cualquier otra ingeniería. Como factores de competencia entre arquitectos, cabe citar la “notoriedad”, la “experiencia”, una “capacidad” contrastada en trabajos similares, o bien una “sintonía personal” con el cliente, que ayuda a trasladar al proyecto, las inquietudes, preocupaciones o ansiedades que todo “promotor” tiene cuando se inicia una nueva “empresa”.

Los sistemas de módulos utilizados normalmente por los colegios de arquitectos, consisten en aplicar un “valor medio” de referencia sobre la superficie construida del edificio, que es la magnitud más característica y proporcional de su coste, corrigiendo y ajustando ese valor medio con un repertorio más o menos amplio de circunstancias fácilmente identificables a primera vista, que repercuten el coste de la construcción, como pueden ser numero de fachadas, los tipos de acabados, tipologías constructivas (naves de acero, estructura de hormigón armado, .. ) etc.

Estos sistemas permiten un control relativamente fácil mediante algún tipo de formulario donde figure un resumen de los datos más característicos del edificio proyectado o también establecer avances o aproximaciones del coste de construcción en las fases más iniciales del proyecto, ayudando a descartar o adoptar distintas soluciones o alternativas.

Una de las ventajas del sistema es su simplicidad, ya que manejando las superficies construidas de cada tipología y unos pocos datos numéricos, se puede obtener una aproximación razonable de su coste o “presupuesto”, que permite adoptar decisiones y/o criterios en la fase de diseño, sin necesidad de completar la larga elaboración del presupuesto. Lógicamente en los proyectos de ingeniería civil, también se emplean sistemas de “índices” con un objetivo similar, pero mucho más desligados de la elaboración final del presupuesto y desde luego sin el carácter “general y objetivo” que aporta una entidad ajena al propio estudio u oficina técnica.

 

MEDICIONES y PRESUPUSTO ( I )

Una vez concluido el tema dedicado a la personalización de AutoCAD, parece oportuno hacer un cambio, para refrescar ligeramente la saturación del tema anterior. El nuevo tema elegido es la elaboración de “mediciones y presupuestos” en los proyectos de arquitectura, que constituye una cuestión de cierta trascendencia, a la que sin embargo entre los profesionales “arquitectos”, no siempre se le presta toda la atención necesaria.

Los elementos del proyecto

Para situar el tema en su contexto, cabe recordar aquella división clásica de los documentos de cualquier proyecto técnico: (Memoria, Planos, Pliego de Condiciones y Medición-Presupuesto.) Esas cuatro partes responden a una estructura conceptual que podría configurar cualquier proyecto, y que se puede definir como sigue:

La Memoria: Es una parte escrita donde se identifican, describen y explican todo tipo de requisitos, características y circunstancias relevantes del objeto que se proyecta. El documento debe incluir tanto la “descripción” completa del objeto en si mismo, como de los “usos” previstos o asignados globalmente o en cada una de sus partes y los “requisitos” de todo tipo, ya sean criterios de diseño, iniciativas discrecionales del promotor, o bien imposiciones legales y reglamentarias, incluyendo la justificación de su cumplimiento.

Los Planos: Incluyen toda la parte gráfica donde se identifican y especifican tanto la situación y emplazamiento del objeto como sus características dimensionales, geométricas y de aspecto, así como todas las especificaciones gráficas necesarias para concretar rigurosamente todos sus elementos y componentes. El contenido y configuración de los planos debe ser tal, que puedan permitir la construcción del objeto con fidelidad al proyecto, pero bajo la dirección de una persona diferente del autor, aunque con el mismo nivel técnico.

El Pliego de Condiciones: Esta es una parte escrita del documento en la que se incluyen las condiciones y requisitos de toda índole, a las que se debe ajustar la “ejecución” o construcción del objeto que se proyecta. Este documento incluye desde atribuciones de los técnicos, responsabilidades del promotor, constructor o de otros agentes, condiciones de rescisión de contratos, fianzas, penalizaciones por incumplimiento, requisitos de control, comprobaciones, ensayos etc, y también  las “prescripciones técnicas”, sobre “condiciones de ejecución” de todas las unidades de obra.

La Medición-Presupuesto: Este es también un documento escrito, en el que se describen y relacionan sistemáticamente todas las “unidades de obra” que contiene un proyecto. Cada una de ellas se identifica mediante una descripción técnica, una numeración correlativa estructurada en capítulos y una “dimensión” o unidad que permite “medir” o cuantificar la magnitud acumulada en todo el proyecto. Además de esto se valora su importe de ejecución, mediante la asignación de un “precio unitario” que multiplicado por la magnitud total, permite determinar el coste de ejecución del proyecto.

Obviamente el hecho de conocer previamente, el importe que puede costar la construcción de un edificio o cualquier objeto proyectado, con la trascendencia que ello supone para respaldar o avalar todo tipo de decisiones, tanto de iniciativa empresarial y económica, como de control administrativo,  justifican en gran medida la utilidad y el esfuerzo que suponen elaborar cualquier proyecto de forma rigurosa, prestando una atención singular a esta parte del documento.

Mediciones y Presupuestos

Esta parte del proyecto se compone a su vez de dos elementos diferenciados. Por un lado la determinación de las magnitudes de cada unidad de obra, y por otro lado la asignación de los precios unitarios de cada una.

La primera parte es lo que comúnmente se identifica como “Mediciones” del proyecto, y se elabora como un listado sistemático ordenado por capítulos, donde se va identificando cada unidad de obra, y a continuación dentro de ella se anotan en una lista, con tantas líneas como sea necesario, los datos numéricos de dimensiones parciales que van formando los elementos o partes de cada unidad, y que en rigor deberían ser perfectamente identificables dentro de los  planos, mediante sus “acotaciones” sin necesidad de efectuar ninguna medición directa.

Las líneas de medición se pueden completar con un pequeño texto aclaratorio que contribuye a identificar el elemento que se esta midiendo, y mediante una ordenación adecuada se pueden totalizar partes o subconjuntos, o bien deducir huecos después de hacer una medición a cinta corrida etc. Finalmente mediante la suma sistemática de los resultados parciales de cada línea, se obtiene la magnitud total para cada unidad de obra. La presencia ordenada de esos datos parciales en un listado completo, permite hacer en cualquier momento las comprobaciones oportunas para asegurar la correcta integridad del resultado.

Evidentemente la elaboración de esa “medición”, necesita recopilar una cantidad muy considerable de datos numéricos, que lógicamente se presta a la aparición de “errores”, tanto debido a la gran cantidad de datos, como a lo tedioso de su recopilación sistemática. En este sentido cabe destacar la existencia de un “antes” y un “después” respecto a la adopción generalizada de los programas de ordenador y las herramientas informáticas, que permiten almacenar, localizar, o seleccionar, la definición de las unidades de obra dentro de repertorios o bases muy amplias, y por supuesto, guardar ordenadamente los datos numéricos de la medición, asegurando el rigor de todas las operaciones.

La segunda parte en la elaboración de este documento, es la asignación del “precio unitario” o valor económico para la ejecución de cada partida. Evidentemente siempre es posible adoptar dicho valor de una forma seria y rigurosa con arreglo a la experiencia profesional y conocimientos del proyectista, pero también es frecuente que se generen dudas, ya que el resultado final puede estar sometido a intereses contrapuestos para adoptar valores excesivamente “altos” o “bajos”, y por otra parte la facilidad de cualquier programa informático u hoja de cálculo para acomodar el conjunto de precios parciales a una cifra final “predeterminada”, una vez conocidas sus magnitudes es tan simple, que a veces surge la duda sobre la posibilidad de que el presupuesto haya sido arbitrariamente distorsionado.

En el caso práctico de la determinación de los precios del presupuesto, cabe distinguir al menos en nuestro país, el ámbito de los proyectos de “iniciativa pública”, en los cuales la elaboración de ese documento está regulada o condicionada por la “Ley de Contratos del Sector Público”, que obliga a añadir una justificación de los precios adoptados, detallando la descomposición de cada uno entre costes “directos” e “indirectos”, y desglosar a su vez los costes directos en los importes de “mano de obra”, “maquinaria” y “materiales”, detallando todo ello en los cuadros de precios y en su caso, con pequeños presupuestos parciales, con lo que se asegura al menos una coherencia interna más difícil de distorsionar.

Dado que en el caso de las obras de “iniciativa pública”, la licitación, la adjudicación y la contratación de la misma se hacen sobre la base de los precios que figuran en el proyecto, esto supone además que los precios deban ser rigurosos con la realidad, so pena de incurrir en responsabilidad por los perjuicios ocasionados, pero sin embargo en el caso de la “iniciativa privada” como es la mayoría de las obras de arquitectura, esa reglamentación no resulta obligatoria y por tanto la licitación y contratación, se hacen al margen de los precios que figuran en el proyecto, siendo normal que cada contratista proponga su propia lista, o que acuerde las condiciones económicas con el promotor de las obras, sin la participación del arquitecto, o bien que promotor y constructor sean la misma persona en cuyo caso los precios del proyecto ya no tienen ninguna trascendencia sobre la contratación de la obra.

Esto supone que en la práctica habitual, dentro del ámbito de las obras de iniciativa privada, para la elaboración del documento de mediciones y presupuesto, se preste gran atención y cuidado a la definición rigurosa de las unidades de obra y a las “mediciones”, pero sin embargo la determinación de precios unitarios se haga sin demasiada atención, más allá de su contribución proporcional en el importe total.

Ayudantes y Colegas

Tradicionalmente el papel del aparejador se ha basado en una “especialización” sobre la “ejecución de obra” desarrollando un papel más activo en esos aspectos y bastante menor en las cuestiones del diseño, la concepción del edificio o la seguridad estructural del mismo. Esto supone que tradicionalmente era precisamente la figura del “aparejador”, la que dentro de un “estudio de arquitectura” solía hacerse cargo de elaborar las mediciones y presupuesto del proyecto, liberando al arquitecto, de tener que abordar un trabajo, sistemático, tedioso, largo y aburrido.

Por otra parte el papel de los “colegios de arquitectos”, como agrupación profesional ha ejercido una cierta regulación en función de evitar o paliar cierto tipo de competencia entre profesionales, que rebajando artificialmente los presupuestos de sus proyectos, podrían justificar ofertas de honorarios más baratas al estar estos vinculados a la complejidad y magnitud del proyecto y consecuentemente al presupuesto de ejecución.

Esa regulación que trataba de evitar que los presupuestos de los proyectos se bajasen arbitrariamente más allá de un límite razonable, se organizaba mediante un sistema de “módulos”, que se aplicaban sobre la superficie construida del edificio, considerando un cierto repertorio de tipologías con distintos niveles de coste y complejidad, y que con una actualización periódica basada en coeficientes estadísticos, permitía establecer para cualquier proyecto una cifra de referencia que siempre se mantenía ligeramente por debajo del coste real de construcción, pero que a su vez aseguraba una aproximación razonable, aportando la ventaja de establecer una referencia uniforme y objetiva para todos los casos.

Esas circunstancias ha supuesto que en la práctica los presupuestos de ejecución en los proyectos de iniciativa privada, se hayan realizado con mucha frecuencia mediante un “ajuste forzado”  de tipo inverso, de tal forma que los precios de las distintas unidades de obra, una vez que se disponía de la “medición” del proyecto, se forzaban mediante el programa informático o una simple regla de tres, para obtener como resultado final precisamente la cifra de referencia, que estipulaba el sistema de módulos del colegio de arquitectos.

Esta situación ha cambiado drásticamente en los últimos años con la aplicación de nueva legislación que basada en criterios de defensa de la competencia y transposición de directivas europeas, ha suprimido las “tarifas” de honorarios profesionales y ha prohibido cualquier mecanismo o referencia que pueda aproximarse a un sistema de “precios acordados”, para asegurar que los honorarios profesionales se reducen a una acuerdo o compromiso “exclusivamente particular” entre arquitecto y cliente.

Esa desregulación del sistema de módulos que anteriormente establecían los colegios de arquitectos, ha generado que ahora hayan aparecido diferentes sistemas de control sobre los presupuestos, siendo frecuente, que tanto las compañías de seguros que operan sobre la responsabilidad civil en la construcción, como muchos Ayuntamientos que ingresan el impuesto de construcciones dependiendo del presupuesto de ejecución de los proyectos, hayan adoptado cada uno su propio sistema de “módulos” de referencia, con el fin de asegurarse o comprobar que los presupuestos no hayan sido distorsionados arbitrariamente.

 

PERSONALIZAR el AutoCAD ( y VII )

Programación.

En todos los grandes programas o aplicaciones, suele haber además de las instrucciones y ordenes que ejecuta normalmente el propio programa, la alternativa de “programar” rutinas o acciones, que inicialmente no se han contemplado, pero que algún usuario concreto con conocimientos de programación, puede estar interesado en realizar o adaptar.

Cuando hablamos de entornos de programación, hay que distinguir lo que normalmente se conoce como lenguajes de “macros”, que si bien permiten un cierto nivel de programación, normalmente se limitan a almacenar una secuencia fija de órdenes o comandos ya existentes en el propio programa, para ser ejecutados en una secuencia única, incluso con la incorporación de datos fijos o variables.

En estos últimos casos el proceso interno a nivel de código de programa, que se va ejecutando en la CPU, es la propia secuencia de instrucciones del programa principal, y la rutina tampoco se sale de los límites que tenga asignados dentro del SO (sistema operativo). Cuando se habla de “entorno de programación”, las rutinas que se desarrollan son externas al programa principal y se ejecutan en la CPU del ordenador como procesos diferenciados e independientes, necesitando un control propio desde el SO.

En este aspecto el entorno de programación ha evolucionado considerablemente desde las primeras versiones del programa que se ejecutaban bajo DOS, el cual no disponía de multitarea ni de multiusuario. Después con la evolución desde W95 este panorama ha cambiado y a su vez se ha desarrollado notablemente la programación orientada a objetos, ya sea en C++ o java. También la disponibilidad de Internet y la paulatina implantación del XML, contribuyen a desdibujar o desbordar los límites tradicionales de CPU-SO-Aplicación.

Las alternativas para desarrollar algún tipo de programación dentro de AutoCAD, en la actualidad es múltiple, y el hecho de optar entre una u otra, depende sobre todo de las destrezas o preferencias de cada programador. En las versiones iniciales solo se disponía de LISP, el cual es un lenguaje de alto nivel, basado en el manejo recurrente de “listas”, que al menos en los primeros tiempos, estaba muy asociado con desarrollos de Inteligencia Artificial. Este lenguaje siempre estuvo muy vinculado con AutoCAD, probablemente por las preferencias de los desarrolladores iniciales, pero también porque su peculiar filosofía permite un manejo bastante flexible, de los distintos datos o entidades que soportan la geometría que maneja el programa.

El lenguaje LISP.

El LISP es un lenguaje “interpretado” que se procesa en tiempo real en la línea de órdenes de AutoCAD. Esto supone que sobre la propia línea se puede escribir cualquier instrucción o código de ese lenguaje, siendo inmediatamente procesada en cuanto se pulsa la tecla “intro”. Alternativamente se puede escribir cualquier programa, bajo las especificaciones correspondientes, en un archivo de texto ASCII plano con la extensión “.LSP”, y ser leído desde el propio AutoCAD ejecutando y procesando su contenido de forma inmediata.

El lenguaje LISP se basa en un manejo recursivo de funciones y listas que siempre se escriben entre paréntesis. La “lista” es el objeto básico del lenguaje, ya que cualquier función se escribe como una “lista” de palabras o datos encerrados entre paréntesis. Los elementos de la lista pueden ser: cualquier palabra separada por espacios, un número, una cadena de texto entre comillas, o bien otra lista encerrada a su vez entre paréntesis.

Si se trata de una palabra aislada en principio se interpreta como el nombre de una variable reservando el espacio de memoria oportuno. Si es un número se interpreta con arreglo a su valor numérico, que puede ser entero o real dependiendo de la presencia del punto decimal. El lenguaje admite mezclar operaciones entre enteros y reales, subiendo siempre la categoría al dato más complejo. Si se trata de una cadena entre comillas se considera como tal.

Dentro de los paréntesis se escribe siempre una sucesión de palabras o términos, de las que la primera tiene que ser necesariamente el nombre de la “función” reconocida por el propio lenguaje LISP, y el resto de términos son tratados como argumentos de la misma. Además de esto, cualquier palabra o término que se incluye en la lista puede ser a su vez otra función encerrada entre paréntesis, de tal forma que el conjunto del programa siempre queda organizado como una estructura anidada de “funciones” escritas entre paréntesis.

La ejecución del programa siempre requiere haber cargado en la memoria RAM, todo el paquete de funciones anidadas y a continuación se comienza por evaluar en primer lugar la más interna, y con el resultado se sustituye en la lista que la contenía, pasando entonces a evaluar esa nueva función, y así sucesivamente hasta concluir con la mas externa cuyo resultado se muestra en la línea de órdenes.

Naturalmente el repertorio de funciones disponible en el lenguaje, permite definir y crear nuevas funciones, acceder a los archivos del disco, a las variables de memoria, calcular expresiones numéricas, y realizar diferentes tipos de operaciones con los datos almacenados en las variables etc. La capacidad para programar en este lenguaje lógicamente se deriva de mantener un conocimiento amplio y general de ese repertorio de funciones y de las posibilidades de uso que permiten.

La Ayuda del programa dispone de una parte dedicada al LISP que incluye una descripción pormenorizada y sistemática de todas las funciones incluidas. También dispone de un “tutorial”, en el que se desarrolla un ejemplo interesante, que sirve para generar una orden o comando nuevo, que dibuja de forma automática, una banda de longitud y ancho variables, rellena con círculos de cualquier tamaño. Este ejemplo resulta interesante porque permite comprobar de una forma práctica las posibilidades y el alcance del lenguaje, además de mostrar las peculiaridades del manejo de “listas” y el uso de las funciones más comunes.

En las últimas versiones del programa, se incluye también el entorno “Visual LISP”, aunque esto en el fondo no es mas que un pequeño sistema de ventanas múltiples que incluye un pequeño editor para facilitar la escritura de código LISP, y además va marcando con colores las palabras reservadas, las variables, se identifica la presencia o falta de paréntesis permitiendo localizar y depurar los errores del código con mayor facilidad. En este caso también se puede compilar el código.

Otras alternativas.

Además del lenguaje LISP, las versiones recientes de AutoCAD, permiten desarrollar rutinas de programación en otros sistemas, lenguajes o entornos como:

 VBA (Visual BASIC)
 ActiveX
  Objet ARX
  .NET

En todos los casos se usa el paradigma de la “programación orientada a objetos”, y el desarrollo en estos entornos requiere siempre un conocimiento avanzado de cada uno,  y por supuesto conocimientos especializados de programación. Dentro de esos entornos, particularmente .NET y Objet ARX, se encuentra la posibilidad de desarrollo mediante  lenguajes de programación como C, C++, C#, etc.

Formas y Tipos de letra.

Las formas son un tipo de objeto cuyo uso es similar a los bloques, aunque presenta ciertas peculiaridades. Una de las ventajas principales es que el manejo de memoria, y la carga del procesador es mucho mas eficiente, por lo que cuando se emplean muchos elementos del modelo puede resultar mas ligero, aunque con el nivel de prestaciones de las máquinas actuales es difícil que pueda llegar a apreciarse la diferencia.

Como inconveniente para el uso de las formas cabe decir que el diseño o dibujo, que va a componer la forma, no puede realizarse directamente en la ventana gráfica, sino que las formas gráficas del dibujo deben traducirse a una “codificación” muy peculiar y luego escribirse en un archivo de texto ASCII, con la extensión SHP, que posteriormente el programa “codifica”, generando un nuevo archivo con extensión SHX, cuyo contenido binario es el que finalmente se maneja.

Uno de los principales usos de las “formas” codificadas son precisamente los “tipos” de letra originales de AutoCAD, que incluso en las primeras versiones se suministraban con las dos clases de archivo, aunque últimamente solo con el codificado SHX. En las versiones actuales del programa también se admiten las tipografías TrueType, pero en este caso no tienen nada que ver con lo que comentamos.

En general el uso adecuado para las “formas” deberían ser elementos gráficos o símbolos relativamente sencillos, con una representación fija que no requiera modificaciones frecuentes, y que se repita mucho, como pueden ser obviamente las forma de tipografía, pero también repertorios de símbolos, para mapas o cartografía, esquemas de instalaciones, notas musicales etc.

Para considerar la posibilidad de crear un repertorio personal de “formas” hay que tener en cuenta que la codificación de un dibujo complejo podría resultar demasiado laboriosa y proporcionalmente sujeta a errores.

En el manual de ayuda, se desarrolla con detalle el sistema de codificación gráfica de las formas, y se incluyen algunos ejemplos que ilustran perfectamente este sistema, e incluso se incluyen un par de archivos con la definición de una tipografía completa.