Está en la página 1de 19

PRINCIPIOS DE CÁLCULO EN HORMIGÓN ESTRUCTURAL

J.F. Bissio - 2014

1) Introducción

En el presente fascículo se abordan algunos aspectos particulares, indispensables para la


comprensión cabal de los contenidos subsiguientes, tanto de esta asignatura como la
inmediatamente correlativa (HAII). Estos aspectos se relacionan, suscintamente, con los
siguientes conceptos:

a) La enseñanza del comportamiento de un cierto material, profusamente utilizado en


la ingeniería civil, como es el hormigón estructural, bajo el permanente enfoque de
aspectos reglamentarios. Un Reglamento, en Ingeniería civil, es la codificación de
una serie de condiciones generales y/o particulares, de aplicación mandatoria para
el desempeño de la profesión y la construcción de estructuras en edterminado
ámbito legal. La mayoría de las materias “físicas” dictadas en una carrera de
ingeniería, es decir, aquellas que tratan básicamente sobre fenómenos de
mecánica del continuo, desarrollan los modelos matemáticos que mejor aproximan
al problema, ajustan sus parámetros a partir de resultados experimentales, y –con
menor frecuencia de la deseada- comparan los resultados obtenidos con valores
experimentales. Rara vez se hace referencia a los aspectos normativos
relacionados con el campo de aplicación de los fenómenos analizados, por
ejemplo, en la enseñanza de la hidráulica. No sucede lo mismo en lo relativo al
diseño y construcción de estructuras de hormigón estructural y también metálicas.

b) El hecho de que los reglamentos citados en el punto anterior tienen como objetivo
primordial proveer Seguridad a los usuarios de las estructuras. ¿Seguridad frente
a cualquier circunstancia? No. Seguridad frente a factores bien conocidos,
relacionados con la variabilidad en las propiedades de los materiales que
componen la estructura, y desconocimiento intrínseco de la magnitud de ciertos
hechos cuya ocurrencia se ubica en el futuro (por ejemplo, la magnitud de un sismo
futuro).

c) La circunstancia insoslayable de que el hormigón estructural pertenece al mundo


real, donde los fenómenos se resisten a las descripciones matemáticamente
elegantes y más o menos rebuscadas, como las que encontramos en los cursos de
estructuras y elasticidad. Un abordaje completo del problema resulta, en realidad,
muchísimo más complejo que cualquier problema relacionado con el acero, los
materiales compuestos aeronáuticos o el plástico más rebuscado. Es probable que
solamente los suelos resulten más complejos de modelar “rigurosamente”. El
comportamiento de una estructura de hormigón armado no es lineal ni elástico,
pero no obstante, las solicitaciones a partir de las cuales de calculan las armaduras
(y a partir de las cuales se evalúa la seguridad…) se determinan normalmente a
partir de programas de cálculo que utilizan la teoría lineal y elástica.
Indudablemente, es un aspecto que debe ser analizado y explicado.

1
SEGURIDAD
2) Seguridad. Esquema General

La seguridad inherente a una estructura, referida la misma a cualquiera de sus Estados


Límite (EL), fue incorporada a la práctica general de la ingeniería estructural -y en
particular a las estructuras de Hormigón Armado- a partir de la segunda mitad del siglo
pasado en su formato actual. Sin embargo, los Reglamentos ya estaban establecidos
como documentos de referencia desde principios del siglo, aunque sin un criterio riguroso
respecto a este tema. Con anterioridad a la introducción de los conceptos probabilísticos,
el formato más utilizado consistía en la limitación de las tensiones de trabajo, suponiendo
un comportamiento elástico lineal para los materiales. De esta manera se establecía un
coeficiente de seguridad único, que dividía a alguna tensión nominal de los materiales. En
el caso de las estructuras metálicas, resultaba natural establecer un valor de tensión
admisible por debajo de la tensión de fluencia del material. Para las estructuras de
hormigón el concepto fue extendido, sobre las base de los procedimientos desarrollados
para analizar el comportamiento de las secciones. En muchas oportunidades, el
coeficiente de seguridad ni siquiera era visualizado como una variable del problema, ya
que directamente se establecían "tensiones admisibles" para los materiales.

Pero resultaba muy difícil justificar la extrapolación de los análisis elástico-lineales para
aplicarlos al comportamiento de las secciones de hormigón armado, y tomó fuerza el
análisis de las mismas en su estado "de Rotura". Aunque este planteo puso
necesariamente de manifiesto la presencia de los coeficientes, su desarrollo no
necesariamente estuvo ligado con el de las teorías de seguridad. En efecto, si bien
formalmente los coeficientes pasaron a afectar las acciones, denominadas "últimas", en
la mayoría de los casos no hacían más que reflejar un ajuste a los antiguos coeficientes
de seguridad utilizados para pasar a tensiones admisibles.

En la década de 1960 comenzaron a imponerse los criterios probabilísticos y el concepto


de probabilidad de falla o fiabilidad estructural. En el ámbito del ACI, el principal
responsable de esta tendencia fue Allin C. Cornell, quien entre otros conceptos
ampliamente utilizados, popularizó el uso del Índice de Fiabilidad . En ese momento
comenzaron a delinearse los primeros esfuerzos serios por alcanzar, entre otras cosas,
niveles de fiabilidad generales y relacionados con el tipo de rotura o la naturaleza de las
acciones en juego. El proceso completo ha involucrado asimismo la adecuación de los
Reglamentos de aplicación a distintos materiales, de forma tal que las acciones se
mayoren de igual manera, independientemente del material. Este esfuerzo ha llegado
hasta nuestros días.

Como ya se mencionó, los conceptos probabilísticos pueden ser aplicados con


generalidad a todos los Estados Límite. De hecho, la confiabilidad de un componente
estructural se define como la probabilidad de no superar ninguno de sus EL. No obstante,
su aplicación se ha afianzado principalmente en el estudio de los Estados Límite Últimos
(ELU), y en ese ámbito se desarrollará esta publicación.

2
El Reglamento nacional Cirsoc 201-05 adopta un esquema general de seguridad
cuyo formato es del tipo:

Resistencia Minorada  Solicitación Mayorada

en los que:

Resistencia Minorada: valor de resistencia menor al que se esperaría rompa una


sección. La resistencia nominal se minora de acuerdo a la variabilidad del mecanismo de
rotura, y también a la ductilidad correspondiente (a menor ductilidad, se aplica una
minoración más severa).

Solicitación Mayorada: las acciones individuales se combinan utilizando factores de


mayoración que tengan en cuenta la variación propia de cada una de ellas y la
probabilidad de ocurrencia del estado combinado en estudio.

El Cirsoc 201 expresa el siguiente requisito básico de diseño:

Resistencia de Diseño  Resistencia Requerida


 Sn  U
donde:

 : Factor de reducción de resistencia.


 Sn : Resistencia nominal.
 U : Resistencia requerida.

La Resistencia Nominal se calcula aplicando las expresiones especificadas y/o


permitidas por el Reglamento, utilizando los valores nominales de las resistencias (f’c y
fy). A esta Resistencia se le aplica el Factor de reducción . La Resistencia Requerida
es igual a las solicitaciones producidas por las cargas mayoradas . Por ejemplo, y como
ya se ha estudiado en los cursos de estructuras I y II, para el estado de carga más común
-peso propio D más sobrecarga L- , la combinación aplicable es: 1.2D + 1.6L. En lo
subsiguiente se verá el fundamento de todos estos valores y factores, su justificación y las
bases para una aplicación racional de los mismos en aquellos casos que se escapan de lo
habitual.

La mayoría de los usuarios ve con naturalidad el hecho de mayorar las cargas y minorar
la resistencia, como un intento de alejarse de la igualdad entre resistencia y solicitación.
De la misma manera, muchos piensan que se trata de meros coeficientes de seguridad
en el sentido "antiguo" del término, cuando aquellos se utilizaban para definir tensiones
admisibles alejando la situación de la rotura o el colapso.

Para comprender cabalmente el tema, es necesario introducirse brevemente en la teoría


de la seguridad estructural.

3) Conceptos básicos sobre seguridad estructural

3
La seguridad de una estructura está asociada a cuestiones netamente probabilísticas, es
decir que es posible establecer con cierta exactitud (dependiendo del desarrollo de las
teorías específicas) la probabilidad de ocurrencia de un determinado suceso referido a la
misma, tal como puede ser la rotura o colapso. El concepto de seguridad abarca también
a otros fenómenos aparte de la rotura, tal como las flechas, fisuración y vibraciones, pero
no nos referiremos a ellos en este fascículo.

La razón por la cual es necesario recurrir a la teoría de las probabilidades para estudiar la
seguridad estructural se basa en el carácter aleatorio de, por un lado, las variables que
definen la resistencia de la estructura, como por otro las solicitaciones actuantes. Por lo
tanto, estas variables pueden ser definidas por su función de distribución de
probabilidades (fdp)1, como se muestra en la figura Fig. siguiente:

Por estar calculada con fy y f'c, -que representan percentiles inferiores a la media- la
resistencia nominal Rn
será menor a la media
Rm.

Sin embargo en el caso


Rn de las acciones, los
valores nominales se
definen de manera tal
Rn Rm que representan un valor
cuya recurrencia es de
50 años, período que
Rn  U coincide con la vida útil
implícita para la
estructura en Cirsoc 201.
Por lo tanto, Sn coincide
con el valor medio de la
U variable. Obviamente las
acciones derivadas de
las cargas mayoradas,
Sn representan un valor
superior a Sn.

La cuestión referida a los percentiles para los que se definen las resistencias
especificadas de los materiales merece un tratamiento particular.

 Tensión de fluencia especificada para el acero fy: Cirsoc 201 tiene implícito el percentil
5% (95% de excedencia), mientars que otro formatos reglamentarios como las Normas

1
Matemáticamente, las distribuciones se pueden escribir:

R = Rm  k R = Rm (1 k R)
S = Sm  k S =Sm (1 k S)

Donde -por ejemplo para el caso de la Resistencia- R representa a cualquier valor posible que puede tomar la
resistencia, y k un parámetro de la distribución, asociado con una determinada probabilidad de excedencia. Los
parámetros restantes (Rm y R, o bien Rm y R) son constantes que definen la distribución, de manera tal que a mayor
coeficiente de variación R , más abierta es la campana.

4
ASTM, no definen el acero relacionando su tensión de fluencia directamente por un
percentil determinado, sino a través de un proceso de aceptación.

 Resistencia especificada a la compresión para el hormigón f'c: En este caso se


presenta una variación conceptualmente importante respecto a la situación vigente en
otros países y también con criterios ampliamente difundidos en la comunidad
ingenieril, que muestra una gran familiaridad con los valores característicos (95% de
excedencia). El Cirsoc 201-05 vigente considera para f'c un percentil 10% (90% de
probabilidad de excedencia). Esto significa que, para un mismo hormigón, definido por
un valor medio de resistencia fm y un coeficiente de variación , y suponiendo válida
una fdp Normal, sería:

'bk = fm (1-1.645 ) Es el valor de referencia para reglamento basado en valores


característicos.
f'c = fm (1-1.28 ) Es el valor de referencia para el Cirsoc 201

El significado práctico de esta modificación es que un H20 con resistencia característica


de 20 MPa, no es el mismo hormigón que un H20 del Cirsoc 201-05. La diferencia no es
de gran significación, pero debe ser tenida en cuenta. La cuantificación de estas
diferencias se muestra a continuación:

f'c = 1.04 'bk para  = 0.10, que representa una dispersión baja.
f'c = 1.07 'bk para  = 0.15, lo que se considera una dispersión media.
f'c = 1.11 'bk para  = 0.20, un valor relativamente alto.

Ahora bien, el hecho central es que resulta fácil perderse en las matemáticas de las
funciones de distribución de probabilidades, y no entender que significan conceptos como
dispersión, valor medio, o desviación estándar. En la práctica, y por supuesto que luego
de una gran simplificación, lo que sucede es que si –haciendo un experimento mental-
1500 personas fuesen a la misma planta de elaboración de hormigón a comprar lo que en
principio es el mismo material, digamos un H21, no obtendrían todos una misma
resistencia. Y esto es inevitable, provocado por la variabilidad de las propiedades de los
materiales componentes, el proceso de fabricación, etc.

La figura siguiente muestra hasta que punto se podrían encontrar diferencias en la


resistencia final:

H21 - fcm estructura = 22.2MPa - COV=17.5%

40
35
30
25
fc (MPa)

20
15
10
5
0
0 500 1000 1500
Casos Aleatorios

5
Los valores pueden variar drásticamente entre unos 10MPa y 33 MPa. Es una especie de
lotería, que inevitablemente debe ser considerada a la hora de analizar la seguridad de la
estructura construida con este material.

Y para el acero, se tendría la siguiente situación:

Acero 420MPa - fym = 465MPa - COV=8.5%

700
600
500
fy (MPa)

400
300
200
100
0
0 500 1000 1500
Casos Aleatorios

Es evidente que la dispersión de valores es mucho menor, básicamente debido a que la


fabricación se realiza en condiciones mucho más controladas.

Volviendo al tema central, la seguridad puede ser definida unívocamente por los valores
que toma la variable (R-S), siendo R la resistencia de una estructura y S la solicitación. Es
obvio que para valores positivos de esta variable, no habrá colapso, y lo contrario
sucederá para valores negativos de la misma. Como R y S son variables aleatorias,
debido a la variabilidad e incertidumbre de los parámetros que las definen (resistencias,
dimensiones, acciones naturales,
fdp(R-S) etc), existe una probabilidad de que
(R-S) (R-S) tome valores negativos, es
decir, de que ocurra la rotura. Esta
probabilidad se denomina
Probabilidad de Fallo (Pf) y está
representada por el área rayada en
P la Figura de la izquierda.
f

La seguridad estructural respecto a


la rotura se evalúa directamente a
(R-S)medio través de la probabilidad de que la
resistencia de la pieza sea
superada por las solicitaciones, y
se la denomina Probabilidad de Fallo (Pf). Si llamamos Riesgo a cada una de las roturas
probables (considerando roturas por flexión, corte, adherencia, etc), cada riesgo posee
una Pf y un impacto determinado, que se relaciona directamente con las consecuencias
(en pérdidas de vidas, bienes, tiempo o dinero) de que ocurra la rotura. Aún en el caso de
eventos relacionados con estados límite últimos, el impacto de una rotura dúctil por flexión
es radicalmente diferente al de una rotura de tipo frágil, de manera tal que para este
último tipo de evento se debería aceptar una menor Pf que para el primero. Por supuesto
que el impacto producido por el colapso de una estructura es considerablemente mayor
que el producido por una flecha excesiva, pero es necesario señalar que numerosos

6
factores sociales y hasta políticos inciden en la valoración que una sociedad hace de los
diferentes riesgos (piénsese en el diseño de las centrales nucleares en diferentes
regiones del planeta, por ejemplo). Por lo tanto es natural que, a menor impacto, sea
aceptable una Pf mayor.

Tal como se ha visto, no existe un valor de Resistencia o de Solicitación, sino que hay un
conjunto de valores posibles, cada uno con una determinada probabilidad de excedencia.

Para continuar con una visualización más directa del tema, se presentan a continuación
tres gráficos en los que, una vez más, se presentan para 1500 casos aleatorios, valores
posibles de R, S y del cociente R/S, que es otra manera de visualizar la diferencia (R-S).
Es fundamental ver que, aún cuando el valor promedio de resistencia es bastante mayor
que el valor promedio de solicitación, al analizar (R-S), existen muchas situaciones
cercanas al colpaso, y aún dentro de el mismo.

Resistencia R - Solicitación S

250

200
R - S (kNm)

150

100

50

0
0 500 1000 1500
Casos Aleatorios

Resistencia R / Solicitación S - Valor medio=1.86

4.00
3.50
3.00
2.50
R/S

2.00
1.50
1.00
0.50
0.00
0 500 1000 1500
Casos Aleatorios

7
De acuerdo con la forma de las fdp, es más probable encontrar valores cercanos a la
media de cada distribución que aquellos alejados de ésta. Es decir que si se plotearan en
un gráfico de ejes R-S (ver Fig. 3.03 a) puntos representando los pares (R,S) posibles, se
encontraría una gran concentración en torno al punto (Rm, Sm) y una menor densidad en
las zonas más alejadas.
Claramente, la recta R=S define la condición de rotura de la sección, y por lo tanto, los
puntos que se encuentren a la izquierda de la misma representarán casos de falla de la
misma. Intuitivamente se puede ver que existe una relación entre la seguridad implícita
de un par (R,S) y su distancia a la recta R=S.

S S R<S (Fallo)
R=S

y R>S (No Fallo)

Pc

Sm Sm x

Rm Rm R
R
a) b)

Para cuantificar esta idea intuitiva, se define a esa distancia mínima “d” entre el punto
definido por el par (resistencia media, solicitación media) y la recta R=S (condición de
colapso) como el Índice de Fiabilidad .

 = (R-S)m / (R-S)

La utilidad de este parámetro está directamente relacionada con la distribución Normal de


probabilidades, ya que cuando (R-S) está normalmente distribuida, resulta:

 {[m-(R-S)m] / (R-S) } m=0=  [ -(R-S)m / (R-S) ] = P (R=S) = Pf = ()

Es decir que, en caso de que R-S esté Normalmente distribuida, la Probabilidad de Falla
Pf puede obtenerse de  a través de la distribución Normal.

Existe por lo tanto una relación biunívoca entre al Índice de Fiabilidad  y la


Probabilidad de Falla de la sección.

La menor distancia entre el origen del sistema (xy) y la recta R=S representa, en el
espacio (x,y) o análogamente (R,S), la menor fiabilidad del sistema. Esta condición está
representada por un punto Pc del espacio, al cual se llamará Punto crítico, Punto de
chequeo o Punto de Proyecto. Las coordenadas de Pc, expresadas en el sistema (R,S)
tiene coordenadas Pc (Rc, Sc), que valen:

8
Rc = Rm -  cos R = Rm - 2S R / (Rm-Sm) = Rm - S R / (S2 + R2)1/2

Y de manera análoga:
Sc = Sm +  sen S = Sm + 2R S / (Rm-Sm) = Sm + R S / (S2 + R2)1/2
Que también se puede escribir de la forma:

Rc = Rm ( 1 -  R R) con R = S / (S2 + R2)1/2 (R 1)


Sc = Sm ( 1 +  S S) con S = R / (S2 + R2)1/2 (S 1; S2 + R2 = 1)

Comparando con la descripción general de ambas variables aleatorias:

R = Rm ( 1  k R)  kR = -  R
S = Sm ( 1  k S)  kS =  S

Siendo R y S  1 resulta inmediato deducir que, para obtener una Fiabilidad  (asociada
con una Pf = () ), cada variable toma en el Punto de Proyecto valores cuyas
probabilidades (de excedencia para las solicitaciones, y de no excedencia para la
resistencia) son obviamente menores que Pf.

4) Niveles de Fiabilidad asociados a diferentes eventos posibles

Una pregunta de gran importancia en el tema de seguridad estructural es ¿son las


estructuras que diseñamos y construimos, suponiendo que seguimos estrictamente
las prescripciones reglamentarias, totalmente seguras?. La respuesta es: NO. Y no
debe alarmarnos esta respuesta, dado que el mundo está lleno de riesgos para las
personas y los bienes.

Surge entonces la siguiente pregunta, mucho más inetersante: ¿Qué tan seguras son
las estructuras que diseñamos y construimos, suponiendo que seguimos
estrictamente las prescripciones reglamentarias, respecto a otros riesgos
socialmente aceptados?

En la figura de la izquierda
 se presentan algunos
0 1 2 3 4 5 6 7 ejemplos emparentados
1.E-10 con la vida común, para
1.E-09 T = 50
años
6 permitir la formación de una
1.E-08 idea relativa de la
1.E-07 1 D+L
seguridad implícita en las
1.E-06 prescripciones del Cirsoc
Pf 1.E-05 D+L+W 201. La Figura muestra un
1.E-04
D+L+E 5
gráfico -Pf , en el que la
4 seguridad es creciente
1.E-03 2
hacia arriba el extremo
1.E-02
superior derecho (observar
1.E-01 3 que  crece en ese sentido,
1.E+00 así como Pf disminuye). Es

9
importante destacar que todos los valores mostrados han sido homogeneizados para una
exposición de 50 años, que es la vida útil de la estructura implícita en el PRAEH 201, y
por esa razón el Índice de fiabilidad  se indica como 50. Las situaciones mostradas en la
figura son:

1: Representa tres estados de carga correspondientes al PRAEH 201. Para Peso propio y
sobrecarga (D+L) se toma =3 para el período de refrencia de 50 años, mientras que
cuando se suman la acción del viento o del sismo, los  correspondientes valen 2.5 y 2.
2: Corresponde a una situación social preocupante tal como es la inseguridad en las
ciudades. Representan la probabilidad de resultar herido ya sea por un intento criminal o
en un accidente de tránsito (lesiones dolosas o culposas), en las ciudades de Bs As
(punto superior) y La Plata.

3: Una eventualidad del mismo tipo que la 2, pero de mayor gravedad, ya que se trata de
la probabilidad de resultar víctima de un homicidio doloso o culposo, en la ciudad de La
Plata. Los puntos de 2 y 3 han sido calculados sobre la base de las estadísticas del año
2001. Las correspondientes a 2002 son considerablemente peores y la tendencia es
creciente, por lo que los valores de 50 mostrados son en realidad una estimación
optimista.

4: Muestra una situación más trivial, ya que representa la posibilidad de ganar el premio
principal del Quini 6, jugando todas las semanas durante los 50 años de referencia.
Comparando con los dos puntos anteriores, es mucho más probable resultar víctima de
un delito que ganar el quini 6, por más empeño que se ponga en el intento...

5: Accidentes relacionados con aviones (sobre la base de estadísticas estadounidenses).


El punto inferior corresponde a la probabilidad de morir en un accidente de aviación,
como pasajero. El superior -y por lo tanto menos probable- indica la probabilidad de ser
alcanzado por un avión que cae, estando el sujeto en tierra.

6: Hace unos 65 millones de años, la caída de un meteorito en el golfo de México provocó


una catástrofe global que -se cree- acabó con los dinosaurios y buena parte de la vida
sobre el planeta. El riesgo de que el suceso se repita al menos una vez (no serían
necesarias muchas más) en los próximos 50 años está representado por el punto 6. Por
supuesto, eventos de menor magnitud (digamos aquellos que solamente tendrían efectos
destructivos limitados a una zona) pueden ocurrir con mayor probabilidad.

En resumen: la evaluación de la probabilidad de ocurrencia de un evento debe asociarse


siempre con la consideración de sus consecuencias, aspecto que desafortunadamente es
un parámetro subjetivo ya que depende de la valoración personal y otros aspectos
ambientales que modifican completamente la percepción del riesgo. Algunos autores
sugieren que el cerebro humano podría tener una limitación funcional para interpretar la
realidad desde un punto de vista aleatorio, y que necesita establecer siempre una relación
causa-efecto para sentirse cómodo y seguro. Esta puede ser la razón por la que el ser
humano evalúa de manera bastante errónea las probabilidades y chances reales de
cualquier situación, aún las más obvias, y tiende a dejarse guiar por sus expectativas,
deseos, o valoraciones subjetivas.

La probabilidad de que algún suceso determinado ocurra tiene interés práctico solamente
si se lo relaciona con el posible Impacto o consecuencia del mismo, Por ejemplo, un

10
evento con la capacidad de provocar un daño global a nivel planetario, como el
mencionado meteorito que cayó hace unos 65 millones de años exterminando la mayor
parte de la vida sobre la tierra, posee una probabilidad anual de ocurrencia sumamente
baja (aprox. 1 en 65 millones) comparada con otros eventos destructivos (terremotos,
huracanes, etc.), pero su impacto sería tan grande, que en conjunto representan un riesgo
cuya entidad amerita que las agencias espaciales mantengan programas tendientes a
detectar potenciales objetos estelares en órbitas de colisión con la Tierra. Por otra parte,
otros riesgos son claramente subestimados por la sociedad. Para un período de
exposición de 50 años, la probabilidad de morir en un accidente de tránsito es del orden
de 1 en 63 para nuestro país, mientras que la probabilidad de morir asesinado (en la
Ciudad de Buenos Aires) es de aprox. 1 en 270. Sin embargo, la opinión pública califica al
segundo caso como un riesgo mayor que el primero. La mejor prueba de que el ser
humano valora deficientemente las posibilidades reales puede ser las altas expectativas
que se ponen en los juegos de azar. La posibilidad de ganar el premio principal del Quini
6, jugando todas las semanas durante los 50 años de referencia, es de aproximadamente
1 en 5000. A partir de las estadísticas de accidentes de tránsito, ¡es mucho más probable
resultar víctima de uno de ellos al trasladarnos para apostar, que ganar el premio, por
más empeño que se ponga en el intento!

5) Obtención del formato final de seguridad

En teoría, una vez que se ha establecido o convenido el nivel de seguridad requerido por
los usuarios, se cuenta con los siguientes elementos:

 El Índice de Fiabilidad  requerido (o la Pf tolerada)


 Las solicitaciones establecidas por el Reglamento de referencia (El PR Cirsoc 101, en
nuestro caso, cuya base es ASCE 7). Estas solicitaciones nominales tienen una
determinada probabilidad de excedencia. Para el caso de los pesos propios, por
ejemplo, los valores indicados por el Reglamento coinciden sensiblemente con los
valores medios de la fdp. Para las cargas variables, dado su carácter intrínsecamente
aleatorio, el valor nominal (¡¡ CON LA CORRECCIÓN POR ÁREA DE INFLUENCIA !! )
representa a la media de la fdp en tanto la vida útil de la estructura sea de 50 años.
Ésto es debido a que el valor nominal mencionado corresponde al valor medio de los
máximos valores para recurrencia R=50 años. Los valores nominales para las
acciones de viento (en ASCE 7) también tienen una recurrencia de 50 años.
 La resistencia nominal (Rn). esta resistencia también se calcula a partir de valores
nominales de todas las variables. Como ya se mencionó anteriormente, los percentiles
de no excedencia para los que se definen las resistencias especificadas de los
materiales corresponden al 10% para el hormigón y al 5% para el acero. Además,
otras variables cuyo carácter aleatorio no puede ser dejada de lado son las
dimensiones, posición y sección de las armaduras, separación de estribos, etc. Para
estas variables se asume que los valores "teóricos" son medios, y que su fdp es
simétrica (en general Normal). Inclusive los modelos de cálculo pueden ser , ya que
normalmente los precedimientos utilizados incluyen algunas simplificaciones
necesarias para no complicar los procedimientos. Todos estos factores determinan
que la Resistencia Nominal Rn sea cercano aunque algo menor al valor medio Rm.

De lo anterior se desprende que no se puede comparar directamente a la


Resistencia Nominal con las solicitaciones derivadas de las cargas nominales,

11
porque eso conduciría a un valor de  (o Pf) diferente al buscado. De hecho,
derivaría en un  muy inferior al necesario, o lo que es lo mismo decir, en una
seguridad menor que la requerida.

Para ello, se plantea:

Resistencia de Diseño  Resistencia Requerida


    Sn  U
donde:

 : Factor de reducción de resistencia.


 Sn : Resistencia nominal.
 U : Resistencia requerida, obtenida a partir de las solictaciones calculadas con las
cargas mayoradas.

Se asume que este mecanismo de disminuir la resistencia mediante el factor , y


aumentar las solicitaciones a través de las combinaciones de mayoración de acciones,
conduce a la condición del Punto de Proyecto (Pc).

Como la tendencia de este formato consiste en aplicar coeficientes o factores a las cargas
(acciones) y resistencias finales de las secciones, es común que se lo denomine con la
sigla LRFD (por Load and Resistance Factored Design)

6) Valores de los coeficientes ( factores )

En el punto anterior se estudió el fundamento teórico del formato de seguridad propuesto


por el Cirsoc 201. También se mencionó que para hacer aplicable el esquema, resulta
necesario contar con un juego limitado de factores a aplicar a las acciones y las
resistencias, los cuales deben cumplir con dos premisas:

a) Ser suficientes para cubrir las diferencias intrínsecas entre diferentes tipos de acciones
(permanentes, variables, accidentales) y de mecanismos de rotura (con ductilidad
variable entre ellos).
b) Constituir un cuerpo claro y comprensible, como para que su aplicación masiva sea
sencilla, y por lo tanto aceptada por la mayoría de los involucrados.

Valores aceptables de 

En el ámbito del ACI y de la ASCE, esta tarea fue llevada a cabo principalmente por
Ellingwood, McGregor, Galambos y Cornell.
Básicamente estudiaron probabilísticamente los Reglamentos vigentes, a los efectos de
determinar las Pf implícitas en prescripciones cuya base no era estrictamente
probabilística. El estudio incluyó estructuras de HA y metálicas, así como también
diferentes tipos de acciones.

Como resultado final de estos estos estudios (teniendo en cuenta otros tipos de rotura
además de flexión simple), se concluyó que:

12
 Para secciones metálicas y de Hormigón Armado, sometidas a flexión y también a
compresión, calculadas siguiendo los estándares vigentes a la fecha, los valores de
Fiabilidad 50 caían en el rango de 2.5 a 3.5, para combinaciones de acciones
gravitatorias (D+L, D+S)

 Para el caso de acciones combinadas en las que se encuentran presentes el sismo o


el viento, 50 oscilaba entre 1.75 y 2.5.

Sobre la base de los resultados comentados brevemente arriba, se establecieron los


siguientes valores de 50 como objetivo, con la intención de mantener tan constante como
sea posible la fiabilidad de las secciones, sin que varíen ampliamente al ser sometidas a
acciones de diverso origen y comportamiento:

a) Peso propio + Sobrecarga (D + L) : 50 = 3.0 (Pf 50 = 0.00135)


b) Peso propio + Nieve (D + S) : 50 = 3.0
c) Peso propio + Sobrecarga + Viento (D + L + W) : 50 = 2.5 (Pf 50 = 0.00621)
d) Peso propio - Viento (D - W) : 50 = 2.0 (Pf 50 = 0.02275)
e) Peso propio + Sobrecarga + Sismo (D + L + E) : 50 = 2.0

En particular, cuando los miembros estructurales pueden fallar de un modo frágil (caso de
las columnas, por ejemplo), los valores anteriores se incrementan en aprox. 0.50.

Una vez definida la seguridad a ser alcanzada por las estructuras, es necesario
ajustar los factores de mayoración de acciones y los factores de minoración de
resistencia siguiendo los siguientes criterios:

 Los factores de mayoración de acciones i se ajustan de manera tal que, para


diferentes composiciones de éstas (% de D, L, W, etc), la Pf se mantenga lo más
uniforme posible (nunca es posible mantenerla constante). Estos factores son
utilizados para todos los tipos de estructuras sometidos al mismo tipo de acción.

 Una vez establecidos los i , el ajuste final para lograr el  deseado se realiza por
medio de los factores de minoración de resistencias . De esta manera las
características propias de cada material, tipo de rotura, ductilidad, etc, son tenidos en
cuenta a través de estos factores.

Factores de mayoración de acciones

Las combinaciones para cargas gravitatorias (D+L y D+S) son las siguientes:

U = 1.4 (D + F)
U = 1.2 (D + F + T) + 1.6 (L + H) + 0.5 (Lr ó S ó R)
U = 1.2 D + 1.6 (Lr ó S ó R) + (1.0 L ó 0.8 W)
U = 1.2 D + 1.6 W + 1.0 L + 0.5 (Lr ó S ó R)
U = 0.9 D + 1.6 W +1.6 H
U = 1.2 D  E + 0.20 (0.70) S
U = 0.9 D  E

13
 D: CARGAS PERMANENTES
 L: SOBRECARGAS
 Lr: SOBRECARGA EN CUBIERTAS
 F: PRESIÓN DE FLUIDOS
 T: ACCIONES POR COACCIÓN, DT, etc.
 W: VIENTO
 S: NIEVE
 E: SISMO
 H: PRESIONES DE SUELO

Donde es muy importante considerar que “Ln” es el valor NOMINAL de la sobrecarga, es


decir, con la corrección por área de
C'/A influencia (ver PR Cirsoc 101). Los
2
(kN/m ) valores de sobrecargas indicados en las
tablas del mencionado Proyecto de
3.0 Reglamento se indican por Lo, y luego de
su reducción por efecto del área de
Máxima Carga sostenida
en la vida útil
influencia se convierten en Ln.
2.5 Obviamente Ln  Lo.
Valor arbitrario (AT) de
la carga sostenida
El fundamento de la reducción de la
2.0
acción variable a medida que aumenta la
superficie cargada es, básicamente,
intuitivo, ya que resulta lógico esperar
que cuanto mayor es la superficie,
1.5
menos probable resulta que se
encuentre cargada en su totalidad.
Experimentalmente se verifica la idea, tal
 0
como se aprecia en la Fig. 6-03, que
100 200 300
 0 Sup. Influencia (m2) muestra resultados (círculos y triángulos)
25 50 75
Sup tributaria (m2)
de mediciones de cargas en columnas,
tanto en función de la superficie de
influencia como la tributaria. La expresión que permite obtener Ln en función de Lo es:

Ln = 0.25 Lo [ 1 + 60 / Ai1/2 ]

Donde Ai es la Superficie de Influencia del elemento estructural (no confundir con la


tributaria!)
Pero Ln  0.5 Lo para elementos que soportan un piso, y L n  0.4 Lo para 2 o más pisos.
Las sobrecargas cuyo valor Lo sea mayor a 5kN/m2 no se reducen, con alguna excepción

Otra cuestión de importancia fundamental es comprender que algunos estados de carga


NO se pueden obtener por simple eliminación de términos en una ecuación que contiene
otras acciones. Para clarificar, si se tiene el caso de un elemento estructural sometido
exclusivamente (o mejor dicho, predominantemente) al peso propio, la acción mayorada
NO VALE U=1.2 Dn. Esto se debe a que los factores de mayoración dependen de la
proporción entre las acciones. Por esta razón, cuando el peso propio es fundamental ( se
puede considerar así solamente cuando Ln/Dn < 0.125), vale:

U = 1.4 Dn (solamente si Ln/Dn < 0.11) (3)

14
También es fundamental considerar las probabilidades en el caso de que actúen en
simultáneo dos acciones con variabilidad temporal. La variación temporal de L es como se
muestra en la Figura siguiente, con dos componentes bien diferenciadas: La carga
sostenida, cuyas variaciones sustanciales se producen a intervalos de duración
considerable (generalmente relacionados con un cambio en la ocupación del bien), y por
otra parte una componente transitoria de duración muy corta, que en la escala de la vida
útil de la estructura se vé prácticamente como pulsos. El máximo valor de la carga
sostenida (A) en general no coincide con el máximo valor de la carga accidental (B), de
manera tal que el máximo L (C) se ubica con mayor probabilidad en otro momento no
concurrente. Otras acciones variables en el tiempo tienen un comportamiento similar.

L Como ya se ha mencionado, los valores Ln


corresponden al valor medio del máximo
C esperable para un período de referencia de
A 50 años. De manera tal que la cantidad más
B probable de veces que será alcanzado ese
valor durante esos 50 años es una. Si se
tiene otra acción que tiene una descripción
aleatoria del mismo tipo, como por ejemplo
el viento (W), resulta obvio que la
probabilidad de que ambos máximos se
LAT
alcancen al mismo tiempo es despreciable
comparada con los valores de Pf
Tiempo aceptables. Concretamente, el valor máximo
de una de las acciones variables será -con
mayor probabilidad- simultáneo con un valor
arbitrario en el tiempo de la componente de carga sostenida de la otra (L AT en el gráfico ).
Este LAT puede expresarse también a partir de el valor nominal de la acción, a través de
un factor AT:
LAT = AT Ln

Donde AT puede ser menor que 1. Si se considera la actuación de dos cargas variables
en el tiempo, obviamente se necesitarán dos estados de carga, con el máximo valor de la
primera junto con el valor AT de la otra, y viceversa. Para la actuación combinada de
acciones gravitatorias y viento (D+L+W), las dos combinaciones quedan como sigue:

U = 1.2 Dn + 1.6 Ln + 0.10 Wn

U = 1.2 Dn + 0.5 Ln + 1.6 Wn

Normalmente la primera ecuación resulta prácticamente igual a la que contiene solamente


D y L, hasta el punto de que no es presentada en el cuerpo Reglamentario.

Acciones cuyos efectos se contraponen:

La acción del viento en combinación con cargas gravitatorias (por ejemplo D, que actúa
siempre) origina normalmente fecetos cuyo signo puede ser contrapuesto. En este caso,
puede resultar más desfavorable un valor menor del peso propio. Considerando que la fdp

15
de D es simétrica, tiene sentido tomar como valor de D el simétrico respecto al valor
medio, pero a la izquierda del mismo. Teniendo en cuenta que el valor medio de D (D m)
difiere ligeramente de Dn, siendo Dm/Dn  1.05, el factor a aplicar valdrá:

1.20 Dn = 1.2 Dm / 1.05 = 1.14 Dm luego el valor simétrico a la izquierda de la media será
0.86 Dm, pero para la combinación hay que expresarlo en función de Dn:

0.86 Dm = 0.86 1.05 Dn = 0.90 Dn

Ajustando los factores para obtener un =2.0, se obtiene la combinación:

U = 0.9 Dn + 1.4 W n , pero el Reglamento indica la aplicación de :

U = 0.9 Dn + 1.6 Wn (6)

Que obviamente se aplica cuando el signo de W n es opuesto al de Dn.

Factores de minoración de resistencia

Los factores  consideran, además del ajuste matemático que permite llegar al punto “Pc”,
cuestiones referidas al tipo de rotura, y la ductilidad implícita en la misma. Por ejemplo,
una rotura de compresión simple resulta mucho menos dúctil que la correspondiente a
flexión simple (asumiendo que se provee una cuantía de acero adecuada). Por lo tanto,
resultan los siguientes valores:

Tipo de Rotura 
a) Flexión Simple 0.90

b) Compresión simple 0.65

c) Corte y Torsión 0.75

CÁLCULO DE SOLICITACIONES EN ESTRUCTURAS DE HORMIGÓN


ARMADO
7) ¿Es válido el cálculo elástico de solicitaciones?

Es conveniente repetir el concepto vertido en el punto (1.b): El hormigón estructural


pertenece al mundo real, donde los fenómenos se resisten a las descripciones
matemáticamente elegantes y más o menos rebuscadas, como las que encontramos en
los cursos de estructuras y elasticidad. Un abordaje completo del problema resulta, en
realidad, muchísimo más complejo que cualquier problema relacionado con el acero, los

16
materiales compuestos aeronáuticos o el plástico más rebuscado.

Cabe preguntarse entonces, como en el título: ¿Es válido el cálculo elástico de


solicitaciones, en estructuras compuestas por un material (el hormigón armado) cuyo
comportamiento es claramente NO lineal y elástico?. Como se verá en este apartado, y
aunque parezca ilógico, la respuesta es (con algunas consideraciones), SI.
Afortunadamente es así, dado que si se habla de estructuras de barras, los métodos
enseñados (y supuestamente aprendidos) en los cursos de estructuras hiperestáticas,
asumen el comportamiento lineal y elástico del material.

Para entender la –aparantemente- contradictoria aseveración anterior, tenemos unas


pocas pero nobles herramientas que aplicamos profusamente: las condiciones de
equilibrio y los teoremas del cálculo plástico.

A las primeras las aplicamos con total conciencia, citando a Homero (Simpson), “¡en esta
familia, respetamos las leyes de la termodinámica!”. No es poco, consideremos que en
ambientes bastante menos pedestres, como el de los elementos finitos, estas condiciones
no se cumplen en todos los puntos del dominio de análisis. Los segundos suelen ser
aplicados a destajo, pero no siempre con el crédito adecuado. Recordemos brevemente
sus enunciados.

TEOREMA DEL LÍMITE INFERIOR (TLI): Una carga externa calculada a partir de
una distribución de esfuerzos internos adoptada, (pero en equilibrio con la carga
aplicada), y donde en ningún punto se supera el límite plástico, es siempre menor
o igual que la verdadera carga de colapso. Por lo tanto es "segura".

TEOREMA DEL LÍMITE SUPERIOR (TLS): Una carga externa calculada a partir
de un mecanismo adoptado (compatible con los vínculos), es siempre mayor o
igual que la verdadera carga de colapso. Por lo tanto, es "insegura”.

La realidad es que, básicamente, y cuando se trata del cálculo de secciones y estructuras


de hormigón estructural, la mayor parte del tiempo se aplica el TLI y el resto del tiempo, el
TLS. La mayoría de las veces se obvia mencionarlo, y mucho menos hacer referencia a
su carácter “seguro” o “inseguro”. Algunos ejemplos breves pero frecuentes:

Los diagramas de momentos flectores con que se determina las secciones críticas de
dimensionamiento en vigas, obtenidas de un análisis estructural lineal y elástico, son,
además de “la” solución elástica (única), una de las tantas soluciones posibles del TLI. Si
se considera el verdadero comportamiento no lineal de las piezas flexadas, la distribución
de momentos últimos más improbable, es la lineal elástica….pero por supuesto, cumple el
TLI. Lo mismo sucede con las “redistribuciones” tan usuales en la práctica: son una simple
manera de ampliar el margen de posibles distribuciones, un subconjunto dentro del TLI.

17
Análisis numéricos realizados con relaciones Momento-Curvatura bastante realistas
muestran, para una viga continua de dos tramos con carga uniformemente distribuida, que
es posible diseñar tramo y apoyo con Mu exactamente iguales (mientras que la solución
elástica indica MAp=1.78MTr), llegando a una carga de colapso 11.8% veces mayor que
la carga mayorada (es decir, con un 11.8% de sobrerresistencia), y obteniendo en el
mismo momento una relación de MAp=MTr. En resumen, la validación total del TLI. Los
valores característicos obtenidos a través de todo el proceso de carga se muestran en la
figura siguiente.
M Apoyo/ M Tramo - t/tu

2.00
1.80
1.60
1.40
1.20
1.00
0.80
0.60
0.40
0.20
0.00
0.00 0.20 0.40 0.60 0.80 1.00
Pasos de tiempo

MAp / MTr t / tu

Al analizar placas, la aplicación del TLI implica simplemente “repartir” la carga en tres
términos: ∂2Mx / ∂x2 + ∂2My / ∂y2 + 2 ∂2Mxy / ∂x∂x = q(x,y). Puede hacerse
“sofisticadamente” mediante un programa que brinda una solución particular de la
ecuación de equilibrio, o bien (solamente porque es mucho más simple), se pasa
rápidamente al TLS para aplicar el Método de las Líneas de Rotura… sin percibir muchas
veces que es el “lado inseguro” de los Tepremas del Cálculo Plástico

18
CONCLUSIÓN

El hormigón estructural comenzó a utilizarse en el mundo mucho antes de que se


desarrollara una teoría completa de su comportamiento en cualquier fase de carga. Por
sus características particulares, ninguna de las teorías elásticas lo representa siquiera de
manera aproximada. Los modelos para representar su funcionamiento fueron
desarrollándose durante todo el siglo pasado, siendo uno de los primeros materiales
cuyos códigos incluyeron conceptos probabilistas de seguridad estructural. Estos códigos
serán citados de manera permanente en los programas de estudio de esta asignatura y la
correlativa inmediata, HAII. Todo este conjunto de factores debe estar siempre presente
en la mente del alumno, y también del profesional, porque la cabal comprensión del
comportamiento del material y las estructuras que se emplean en los proyectos, es la
base fundamental de la seguridad.

19

También podría gustarte