CUESTIONARIO N1 MATERIALES 2020 2do Cuatri

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 161

U.N.Sa. Facultad de Ingenieria.

Alumno: Garnica, Josue David


Catedra: Materiales L.U.:310945
Año: 2020- primer cuatrimestre

1er Cuestionario

1) Visite un corralón, e indique como se comercializan, espesores,


longitudes , pesos y los precios de las barras para hormigón armado.

Se realizó una visita al corralón Olavarria , y se investigaron los datos requeridos.


Las barras de hierro que comercializan, son de espesores variables y de una longitud
de 12m.
Cada barra de 12m tiene un precio definido según el espesor, siendo los precios:
·         D=4,2mm, $106
·         D=6mm, $150
·         D=8mm, $245
·         D=10mm, $390
·         D=12mm, $550
·         D=16mm, $970
. D=20mm, $1500
. D=25mm, $2350

2) Visite un corralón e indique como se comercializan, espesores, longitudes y


precios de madera para la construcción. ¿Tienen algún sellado especial en los
grandes corralones?
Todas las piezas se miden según sus tres dimensiones (longitud, anchura y grueso) y
se les da los nombres siguientes:
-Largo. Longitud de la pieza.
-Tabla. Dimensión mayor de la sección transversal.
-Canto. Dimensión menor de la sección transversal.
Terminología para las superficies que delimitan las piezas:
-Cara: Superficie de la pieza correspondiente a las dimensiones mayores en la dirección
de la fibra.
-Canto: Superficie de la pieza correspondiente a las menores dimensiones en la
dirección de la fibra.
-Testa: Superficie de corte perpendicular a la dirección de la fibra en el extremo de la
pieza.
DENOMINACION SEGÚN SU ESCUADRÍA:
Escuadrías son ciertas medidas de base que tienen en cuenta las tres dimensiones de
una pieza aserrada: largo, ancho y grueso.
Las piezas de madera, según su escuadría reciben los siguientes nombres:
VIGAS: piezas de sección rectangular o cuadrada y aristas vivas de 4 a 10 m de
longitud y sección (ancho y grueso) de 15 x 20 cm a 25 x 35 cm.
TIRANTES: piezas como las anteriores pero de secciónes que rondan a 10 x 15 cm.
COLUMNAS: piezas de sección rectangular o cuadrada y aristas vivas de 4 a 10 m de
longitud y sección (ancho y grueso) de 10 x 10 cm a 20 x 20 cm.
MACHIMBRE: tablas machihembradas de hasta 5 m de longitud, de 5 a 15 cm de
ancho y de 1,5 a 3 cm de grueso.
REGRUESOS: maderas que tienen un espesor de 4 a 10 mm y de longitud y anchura
variables.
CHAPAS: igual que las anteriores pero de un espesor de 0,2 a 5 mm.
VIGUETAS: tienen de 8 x 8 cm a 15 x 15 cm de escuadría y 5 m de longitud.
LISTONES: Pieza de sección cuadrada o rectangular y pequeñas dimensiones de la
sección transversal. piezas de sección rectangular y aristas vivas, con escuadrías de 2
x 4 cm a 5 x 8 cm.
Las medidas de las distintas piezas de madera en los corralones se encuentran en
pulgadas y metros como veremos a continuación. Algunos precios actuales son:

Tipo Dimensiones(“ x” x Madera PRECIO


m)
VIGAS 3 x6 x 4.27 Pino 469 (C/U)
COLUMNAS 4 x4 x 3 Pino 849 (C/U)
LISTONES 1/2 x1 x 3.05 Pino 43.9 (C/U)
1 x2 x 3 Eucalipto 80 (C/U)
TIRANTES 2 x5 x 4.9 Pino 259 (C/U)
3 x3 x 3.35 Eucalipto 155 (C/U)
MACHIMBRE 1/2 x 4 x 2.94 Pino 282 (C/U) o 114
1/2 x 3 x 3.05 Pino m^2
407 (C/U) o 219
m^2
TABLONES 3 x0.8mx0.8 m Pino 469 (C/U)

Los troncos ya revisados por el clasificador se almacenan según los pedidos de los
clientes y se identifican a la vez que son marcados con el CE (El marcado CE es el
proceso mediante el cual el fabricante/importador informa a los usuarios y autoridades
competentes de que el equipo comercializado cumple con la legislación obligatoria en
materia de requisitos esenciales) .
SODIMAC- CORRALON AMERICA

3) VISITE UN CORRALON E INDIQUE COMO SE COMERCIALIZAN Y PRECIOS


APROXIMADOS DE AISLANTES ACUSTICOS, HIDRÓFUGOS E IGNÍFUGOS.

Aislantes acústicos:
Lana acústica 50 mm de espesor por 2 rollos $3745
Lana Rolac plata cubierta 50 mm de espesor por rollo 18 metros $3805
Aislante hidrófugo:
Membrana hidrófuga por rollo de 10m2 a $1000
Espuma de polietileno aluminizada de 10mm a $1500
Aislante ignifugo:
Lana Rolac plata cubierta 50 mm de espesor por rollo 18 metros $3805

4) Defina los conceptos de aislación acústica, hidrófuga e ignífuga, de


ejemplo de materiales que sirven para estor propósitos.
AISLACIÓN ACÚSTICA
Se refiere al conjunto de materiales, técnicas y tecnologías desarrolladas para aislar o
atenuar el nivel sonoro en un determinado espacio, es decir, permite proporcionar una
protección al recinto contra la penetración del ruido, la cual se logra colocando
materiales aislantes sobre las paredes y las ventanas. También es un eficaz aislante
acústico, las cámaras de aire (un espacio de aire hermético) entre paredes. Si se
agrega, además, material absorbente en el espacio entre los tabiques (por ejemplo
lana de vidrio), el aislamiento mejora todavía más. Para un efectivo aislamiento
acústico, lo realmente importante es que la resistividad al flujo de aire (AFr) de dicho
material sea mayor de 5 KPa.s/m2.
Entre los materiales tenemos: láminas pesadas y flexibles fabricadas a base de
caucho, betún, asfalto, lana de vidrio, lana de poliéster, etc.
AISLACIÓN HIDRÓFUGA
Actúa como barrera contra la humedad para evitar su ingreso o filtración por los
distintos elementos constitutivos de un edificio, incluyendo cimentaciones,
cerramientos exteriores, cubiertas, ventanas y puertas. Gran parte de los desperfectos
producidos en las construcciones tienen su origen en la acción nociva de la humedad.
Cuando la humedad ingresa en una construcción provoca diferentes problemas tales
como: disminución de la protección térmica, degradación de los materiales, aparición
de hongos y moho, eflorescencias, corrosión en los metales, problemas estructurales.
Los materiales usados como aislamiento hidrófugo se denominan materiales de
Impermeabilización o Impermeabilizantes.
Entre los materiales tenemos: Materiales bituminosos (asfalto, alquitran, betun),
Cartones impermeables (fieltro de techar), Coberturas o lienzos impermeables,
Laminas termoplásticas, Revoque hidrófugo, Hormigón hidrófugo, Pinturas especiales
(pinturas anticorrosivas, pinturas hidrófugas, pinturas asfalticas).
AISLACIÓN IGNIFUGA
Es un tipo de medida pasiva que brinda protección a los materiales o a las estructuras
ante el fuego mediante el uso de materiales o estructuras que son más resistentes al
fuego. Los materiales ignífugos tanto aplicados sobre estructuras (morteros), como
instalados para sectorizar, lo que hacen es retardar las consecuencias del fuego. Al
realizar este tipo de protección conseguimos aumentar el tiempo para permitir tanto la
evacuación de las personas, como el acceso de los cuerpos especializados en
extinción de incendios por un determinado plazo de tiempo.
Entre los materiales tenemos: fibras de vidrio, lana de vidrio y mineral, alfombras
fibrosas (compuestas por 6 tipos de minerales resistentes al fuego), espuma (La
celulosa tratada con químicos que retrasan el fuego, se encenderá a los 150 grados),
Los aislantes basados en cerámicos a menudo se utilizan para formar figuras
resistentes al calor para soportes de tuberías, chimeneas o en maquinaria donde la
vibración o el impacto podría aflojar el aislante. Los bloques aislantes de cerámica
pueden ser cortados en formas para aplicaciones especiales.
Fuentes:
 https://es.m.wikipedia.org/wiki/Aislamiento_acústico
 https://www.construmatica.com/construpedia/Aislamiento_Hidrófugo
 https://es.m.wikipedia.org/wiki/Inifugidad

5) ¿Que diferencia hay entre masa y peso? Defina cada uno de ellos
Masa: es una magnitud física fundamental que indica la cantidad de materia contenida
en un cuerpo. Como ya hemos visto anteriormente, la unidad de medida de la masa,
según el S.I (Sistema Internacional de Unidades) es el Kilogramo (Kg).

Peso: es una fuerza que depende de la atracción gravitacional. En términos de física


clásica, la fuerza peso que actúa sobre un cuerpo es la fuerza de atracción que un
campo gravitacional aplica sobre el mismo (sobre el cuerpo). El peso, por lo tanto,
dado que es una fuerza, se mide en Newton (N)
En la vida cotidiana se suelen utilizar el termino masa y peso indistintamente con el
mismo significado. En realidad masa y peso son dos magnitudes diferentes: la primera
(masa) es una magnitud escalar y la segunda (peso) es una magnitud vectorial que
representa una fuerza.
La diferencia entre peso y masa es notable. La masa es una propiedad de los cuerpos
y no depende de ninguna otra magnitud, mientras que el peso depende del lugar en el
cual se efectúa la medición, ya que es un efecto producido por la atracción de un
campo gravitacional sobre una masa.

Bibliografía: http://es.wikipedia.org/wiki/Peso

6)Calcule la fuerza de gravedad entre la tierra y un objeto que tiene una masa
de 1kg, o que pese 1kg en la tierra, y otro objeto que pese 1 kg en la luna
Fuerza de gravedad entre la tierra y un objeto de 1kg
m1 ∙ m2 N . m2 (6 x 10 ¿ ¿ 24 kg)
F g=G ⇒ F g=( 6.7 x 10 ¿ ¿−11 )∙ 1 kg ∙ ¿¿
r2 2
kg (6.4 x 10¿¿ 6)2 m2=9.81 N ¿
Masa de un objeto que pesa 1kg en la luna
m1 ∙ m2 N .m 2 (7.35 x 10 ¿ ¿ 22 kg)
F g=G 2
⇒ 9.8 N=(6.7 x 10 ¿ ¿−11 2
) ∙m ∙ 2 2
¿¿
r kg (1.7 x 10¿¿ 6) m → m=5.75 kg ¿
Fuerza de gravedad entre la tierra y un objeto que pesa 1kg en la luna
m1 ∙ m2 N . m2 ( 6 x 10 ¿ ¿ 24 kg )
F g=G ⇒ F g=( 6.7 x 10 ¿ ¿−11 )∙ 5 kg ∙ ¿¿
r2 2
kg (6.4 x 10 ¿¿ 6)2 m2=49.05 N ¿
7) Cuanto pesa en la luna una persona que pesa en la tierra 75kg?
Masa de una persona que pesa 75kg
9.81∗75
F g=m∗a → a= kg=75 kg
9.81
Fuerza de gravedad entre la luna u un cuerpo de 75kg
m1 ∙ m2 N . m2 (7.35 x 10 ¿ ¿22 kg)
F g=G ⇒ F g=( 6.7 x 10 ¿ ¿−11 )∙ 75 ∙ ¿¿
r2 2
kg (1.7 x 10¿¿ 6)2 m2 → F g=127.8 N ¿
Peso de la persona en la luna
N∗1 kg
F g=127.8 =13.03 kg
9.81 N
8) Calculo la fuerza de gravedad entre la tierra y una persona que tiene 75 kg
de masa.
Dar los resultados en N, sabiendo que la Tierra tiene una masa de 6x 10 24
Kg y el radio de la
tierra 6.4x10^6 metros, el valorG=6.7x10^-11Nm2/kg2
Fg = G m1.m2/r
m1 . m2 N .m2 ( 6 ∙10 ¿ ¿ 24 kg)
⟹ F g =6.7 x 10 −11
F g=G 75 kg . ¿
r2 2
kg (6.4 ∙ 10¿¿ 6)2 m2=736.08 N ¿

Y la fuerza de gravedad entre Jupiter y una persona que tiene 75 kg de masa

m jupiter =1,899∙ 1027


r jupiter =69,9 ∙10 6 m
m1 ∙ m2 N . m2 (1.899 x 10 ¿ ¿ 27 kg)
F g=G 2
⇒ F g =( 6.7 x 10 ¿ ¿−11 2
)∙ 75 ∙ ¿¿
r kg (69.9 x 10¿¿ 6)2 m 2 → F g=1953.02 N ¿

9) La masa de un block de concreto de 250 mm x 250 mm x 250 mm es de 27.0 Kg, busque la


densidad del concreto en Kg/m3.
3 m 27 kg Kg
V =L3 =( 250 x 10−3 m ) =0.0156 m3 ⟹ ρ= = =1728 3
V 0.015625 m 3 m
Kg
ρ=1728
m3
10) Que es densidad aparente?
La densidad aparente es el cociente entre la masa de producto y el volumen aparente del
mismo, incluyendo los huecos entre los granos.

11) Que detalla la norma IRAM-IAS U500-528?


Barras de acero conformadas de dureza natural, para armadura en estructuras de
hormigón.
12) Que es el acero ADN 420 , sus caracteristicas, sus diametros nominales,
perimetros nominales, peso nominal por metro, y el peso por barra de 12 metros,
como se identifica una barra, y sus propiedades mecanicas.

Son aceros al carbono destinados a la construcción, elaborados en hornos eléctricos.


Sus características mecánicas están dadas por el manejo de la composición química y
por procesos de laminado con equipos de alta tecnología.
Aplicación: En armaduras en cualquier estructura de hormigón armado que no
requiera características de soldabilidad.
Empaque: Barras de 12 metros de longitud, en paquetes de 2 toneladas con 6
ataduras (4 de izaje). Rollos de 1.8 toneladas con 4 ataduras.

Medidas y Masas nominales por Metro:


http://www.maddio.com.ar/downloads/Barras.pdf
http://www.acerbrag.com/productos_barras_de_acero_dureza_natural_normal
13) INVESTIGUE CUAL ES LA MASA DEL SOL, Y DE LA TIERRA, CONOCIENDO SUS
MASAS, SUS VELOCIDADES, Y OBTENIENDO LA FUERZA CENTRÍFUGA,
DETERMINE EL RADIO DE UN ACERO CIRCULAR ADN 420, QUE IMPIDA QUE LA
FUERZA CENTRÍFUGA EXPULSE A LA TIERRA, DEL SOL, SUPONIENDO QUE
REEMPLAZA A LA FUERZA DE ATRACCIÓN ENTRE AMBOS…Y SI FUERA UN
ACERO DE SECCIÓN CUADRADA CON LA MISMA RESISTENCIA.
La masa del Sol equivale a unas 332 950 veces la masa de la Tierra y su valor es:
M☉= 9,9891*1030kg
Además de eso, el Sol gira alrededor del núcleo de la Vía Láctea a unos 792.000
kilómetros por hora, aunque a pesar de esa aparentemente descomunal velocidad
tarda unos 225 millones de años en completar una órbita.
La masa de la Tierra (M⊕ = 5,9722 × 1024 kg,1 2 o sea, casi 6000 trillones de
toneladas).
La Tierra se mueve muy rápido. Gira (rota) a una velocidad alrededor de 1,000 millas
(1,700 kilómetros) por hora y orbita alrededor del Sol a una velocidad alrededor de
67,000 millas (107,000 kilómetros) por hora. No sentimos ningún movimiento porque
estas velocidades son constantes.

=F/A  =420 Kg/m2


F=G.m1.m2/r2 → r=149600000000m (distancia entre el sol y la tierra)
m1=6*1024kg
M☉= 9,9891*1030kg
G= 6.7 x 10 -11 Nm2 /kg2
F=1,79*1023N

A=F/  → A=4,27*1020 m2 → A=π r 2 → R=1,17*1010m

A=F/  → A=4,27*1020 m2 → A=l2 A=π r 2 → l=2,07*1010m

14) La sección de una viga de concreto de 10 metros de largo, es de 0.45m x


0.9m; busca la masa y el peso del mismo, sabiendo que la densidad de este
concreto es de 2400 kg/m3. Cuál sería su masa y su peso en la luna de la
tierra.
: Densidad

 = m/V = 2400 kg/m 3

 m=  * V = 2400 kg/m 3 * (10 * 0.45 *0.9) m 3  m=9720 kg

P=m*a ; a= 9.81 m/ seg2

 P= 9720 kg * 9.81 m/ seg2  P=95353.2 N

Para la masa y el peso de la viga en la luna tenemos que tener en cuenta que la
gravedad en la luna es la sexta parte de la gravedad en la tierra, es decir 1.635 m/ seg2

m luna = 9720 kg

Pluna = 9720 kg * 1.635 m/ seg2  Pluna=15892.2 N

15)Que son los planetas clase 5 restringida como ser Europa o encelado
En el Sistema Solar hay dos posibles mundos oceánicos que reúnen algunos de estos
requisitos, necesarios para que un lugar sea habitable. Encélado y Europa, dos satélites
de Saturno y Júpiter respectivamente, son los candidatos más fiables, según ha revelado
hoy la NASA. "Nunca hemos estado tan cerca de detectar un lugar con algunos de los
ingredientes necesarios para que un entorno sea habitable", dice Thomas Zurbuchen, un
astrofísico de la NASA.
El gas hidrógeno, que potencialmente podría proporcionar una fuente de energía química
para la vida, se reparte por el océano que habría en el subsuelo de Encélado gracias a la
actividad hidrotermal del fondo marino. Si hubiera microbios entonces podrían usar el
hidrógeno para obtener energía, al combinar el hidrógeno con dióxido de carbono disuelto
en agua. Esta reacción química denominada metanogénesis, porque produce metano
como un subproducto, se encuentra en las raíces de la vida terrenal y pudo ser crucial
para el origen de la vida en la Tierra. La nave Cassini ha demostrado que Encélado tiene
casi todos los ingredientes necesarios para ser habitable; el fósforo y el azufre todavía no
se han detectado en el océano, pero los científicos sospechan que podrían existir, pues el
núcleo rocoso de Encélado parece ser químicamente similar a los meteoritos que
contienen ambos elementos.
Por otro lado, unas imágenes tomadas por el telescopio espacial Hubble indican que las
columnas de vapor de agua de Europa podrían ser un fenómeno real, brotando de forma
intermitente en la misma región de la superficie lunar. Una nueva imagen muestra una
columna que se eleva unos 100 kilómetros por encima de la superficie de Europa. Los
investigadores creen que, tal y como sucede con Encélado, esto podría ser una evidencia
de que el agua está siendo expulsada desde el interior de la luna.
16) Que mineral es el Olivino, y que importancia tiene para la vida?
El olivino es un grupo de minerales constituyentes de rocas, aunque el nombre se suele
aplicar con especial referencia a la principal solución sólida del grupo, que es
entre forsterita (Mg2SiO4) y fayalita (Fe2SiO4). Los olivinos son de los minerales más
importantes en la clasificación de rocas ígneas. El olivino rico en magnesio destaca por
ser el componente principal del manto superior de la Tierra.
Forma parte de los materiales químicos precursores de la vida

17) Que es un átomo, un electrón, un protón , un neutrón, un quarks, un


gluón, que es un positrón
El átomo es la unidad de materia más pequeña de un elemento químico que
mantiene su identidad o sus propiedades, y que no es posible dividir mediante
procesos químicos. Está compuesto por un núcleo atómico, en el que se
concentra casi toda su masa. Son objetos muy pequeños con masas igualmente
minúsculas: su diámetro y masa son del orden de la billonésima parte de un metro
y cuatrillonésima parte de un gramo. Solo pueden ser observados mediante
instrumentos especiales.
Los átomos están formados por partículas aún más pequeñas llamadas partículas
subatómicas.
Generalmente, estas partículas subatómicas con las que están formados los
átomos son tres:
Los electrones, los protones y los neutrones. Lo que diferencia a un átomo de
otro es la relación que se establecen entre ellas.
El electrón es una partícula elemental de tipo fermiónico, más precisamente un
leptón. En un átomo los electrones rodean el núcleo, compuesto únicamente de
protones y neutrones, formando orbitales atómicos dispuestos en sucesivas
capas. Los electrones tienen una masa de 9,11×10 -31 kilogramos y una carga
eléctrica cuyo valor es de -1,602×10 -19coulombios. Estas partículas desempeñan
un papel primordial en la química, ya que definen las atracciones entre los átomos.
El protón es una partícula subatómica con una carga eléctrica elemental positiva
(1,6 × 10-19C), igual en valor absoluto y de signo contrario a la del electrón, y una
masa 1.836 veces superior a la de un electrón. El protón y el neutrón, en conjunto,
se conocen como nucleones, ya que conforman el núcleo de los átomos. En un
átomo, el número de protones en el núcleo determina las propiedades químicas
del átomo y qué elemento químico es.
El neutrón es una partícula subatómica sin carga neta, presente en el núcleo
atómico de prácticamente todos los átomos. Aunque se dice que el neutrón no
tiene carga, en realidad está compuesto por tres partículas fundamentales
cargadas llamadas quarks, cuyas cargas sumadas son cero. Por tanto, el neutrón
es un barión neutro compuesto por dos quarks de tipo abajo, y un quark de tipo
arriba. El neutrón es necesario para la estabilidad de casi todos los núcleos
atómicos.
Los quarks, junto con los leptones, son los constituyentes fundamentales de la
materia. Varias especies de quarks se combinan de manera específica para
formar partículas tales como protones y neutrones. Son las únicas partículas
fundamentales que interactúan con las cuatro fuerzas fundamentales. Son
partículas parecidas a los gluones en peso y tamaño.
Hay seis tipos distintos de quarks que los físicos de partículas han denominado de
la siguiente manera:
 up (arriba)
 down (abajo)
 charm (encanto)
 strange (extraño)
 top (cima)
 bottom (fondo).
El gluón es el bosón portador de la interacción nuclear fuerte, una de las cuatro
fuerzas fundamentales. No posee masa ni carga eléctrica, pero sí carga de color,
por lo que además de transmitir la interacción fuerte también la sufre. Estas
partículas son las que "unen" los quarks dentro de los nucleones.
El positrón o antielectrón es una partícula elemental, antipartícula del electrón.
Posee la misma cantidad de masa y carga eléctrica; sin embargo, esta es
positiva. No forma parte de la materia ordinaria, sino de la antimateria, aunque se
producen en numerosos procesos radioquímicos como parte de transformaciones
nucleares.
Esta partícula fue predicha por Paul Dirac en el año de 1928, para luego ser
descubierta en el año 1932 por el físico norteamericano Anderson al fotografiar las
huellas de los rayos cósmicos en una cámara de niebla.
En la actualidad, los positrones son rutinariamente producidos en la tomografía
por emisión de positrones usados en las instalaciones hospitalarias.

Bibliografía: http://energia-nuclear.net/definiciones/atomo.html
https://es.wikipedia.org/wiki/Quark
http://definicion.de/positron/
https://es.wikipedia.org/wiki/Positr%C3%B3n

18) Detalle un poco sobre las características de los quarks


Actualmente, se pueden distinguir seis tipos de quarks (con los correspondientes
antiquarks) que los físicos de partículas han denominado de manera arbitraria, pero 
fácil de recordar y usar:
- Quark up (arriba) o simplemente u ---> carga eléctrica +⅔ y descubierto en el año
1964.
- Quark down (abajo) o simplemente d ---> carga eléctrica -⅓ y descubierto en el año
1968.
- Quark charm (encantado) o simplemente c ---> carga eléctrica +⅔ y descubierto en
el año 1971.
- Quark strange (extraño) o simplemente s ---> carga eléctrica -⅓ y descubierto en el
año 1964.
- Quark top (cima) o simplemente t ---> carga eléctrica +⅔ y descubierto en el año
1995.
- Quark bottom (fondo) o simplemente b ---> carga eléctrica -⅓ y descubierto en el
año 1995.
Las variedades u y d sí que existen actualmente en la
naturaleza de manera estable, y se distinguen entre
ellas por su carga eléctrica (entre otras características).
En la naturaleza, los quarks u y d no se encuentran
aislados; siempre se aglutinan en grupos de a
2 (hadrones) o de a 3 (bariones). 
Los protones y los neutrones están formados por 3
quarks que se combinan de manera que producen
Neutrón Protón
una carga entera.
No hay información de cargas fraccionarias de partículas aisladas. Actualmente se
desconoce por qué la suma de las cargas eléctricas de los quarks en un protón se
corresponde exactamente con la de un electrón.
Los 6 tipos de quarks se caracterizan por la carga eléctrica, la masa, el sabor y
el espín. 
- La carga eléctrica es una fracción de la carga eléctrica de un electrón, que se
considera unitaria. 
- Las generaciones se establecieron de acuerdo a la magnitud de la masa.
- Los quarks tienen espín +½ ó -½, por lo que se clasifican dentro de la familia de los
fermiones.
La noción de la masa de un quark es una construcción teórica que tiene sentido sólo
cuando se especifica exactamente qué se usará para definirla. La masa del quark t es
puede ser medida directamente de los productos desintegrados resultantes en el
Tevatrón, que es el único acelerador de partículas con la suficiente energía para
producir quarks t en abundancia.
El sabor de un quark se relaciona con el hecho de que los quarks pueden cambiar de
tipo, debido a la interacción débil. A este cambio, se le denomina sabor. El bosón W y
el bosón Z son los que permiten el cambio de sabor en los quarks; estos bosones son
los causantes de la interacción débil. Cada quark tiene un sabor diferente que
interactúa con los bosones de una manera única. El sabor de los quarks u y d es el
isospín débil. El quark s, tendrá un número cuántico o sabor, homónimo, llamado
strange y tiene el valor de -1. Para el quark c el sabor es encantado y tiene el valor de
1.
El color de un quark no tiene nada que ver con la percepción de la frecuencia de la
luz; el color es la carga envuelta en la teoría de gauge, más conocida como
cromodinámica cuántica. Los quarks, al ser fermiones, deben seguir el “principio de
exclusión de Pauli”. Este principio implica que los tres quarks de un barión deben
estar en una combinación antisimétrica. Esto implica que existe otro número cuántico
interno. A esta propiedad, o número cuántico, se le denominó color. Los quarks tienen
tres colores, análogo con los tres colores fundamentales rojo, verde y azul.
Por todo esto se suele decir que existen 18 tipos de quarks, 6 por sabor y cada uno
con 3 colores.
https://astrojem.com/teorias/quarks.html
19) VEO EL VIDEO : DE QUE ESTA HECHO EL UNIVERSO, HAGA UN RESUMEN DEL
MISMO Y ESTUDIELO...

Durante más de un siglo los físicos comenzando por Albert Eisten se han
cuestionado de que esta hecho el universo; se preguntaron que si suponiendo
que el universo tuvo un creador, que clase de plano utilizaría? Su objetivo era
descubrir ese plano del universo y usar la lengua de las matemáticas para
expresarlo a través de una formula. Hasta el día de hoy los científicos han
conseguido crear fórmulas para expresar distintos tipos de fenómenos naturales.
Los físicos están empeñados en encontrar LA FORMULA DEFINITIVA que es la
única fórmula para describir todos los fenómenos del universo.

De que esta hecho el universo?


Se han respondido a través de fórmulas que los científicos creen que están más
cerca de la fórmula definitiva. Si se comprenden totalmente las 4 partículas
eleméntales y las tres fuerzas se podrían explicar cualquier cosa del mundo
Las unidades de materia más pequeñas conocidas en el mundo, se llaman
Partículas elementales estas se dividen en:
 los electrones orbitan dentro de un átomo
 dos quarks que forman el núcleo en el centro del átomo
 neutrinos partículas que de vez en cuando escapan del núcleo
Ahora la pregunta es qué es lo que causa que estas partículas elementales
permanezcan o escapen del átomo? Son las fuerzas
 Fuerza Electromagnética atrae a los electrones al núcleo
 Fuerza nuclear fuerte es la unión de los dos tipos de quark
 Fuerza nuclear débil es la que causa que los neutrinos salgan del núcleo
La búsqueda de la fórmula definitiva comienza a finales de los años 20 por el
físico Paul Dirac se centró primero en los electrones la única partícula elemental
que se había descubierto, las propiedades de los electrones se podían calcular a
través de la fórmula de Schrodinger la cual nos permitía calcular su energía pero
no se podía calcular todas las propiedades de los electrones
Dirac se basó en la belleza, una fórmula es bella cuando permanece igual aunque
cambien los ejes la belleza para un físico es la simetría que no es más que la
afirmación de que algo se ve igual desde diferentes puntos de vista. La simetría de
Lorentz está relacionada con la teoría de la relatividad de Eisten y describe como
el tiempo y el espacio son en esencia lo mismo. Partiendo a partir de ahí dio la
siguiente conclusión si había algo parecido a un mapa del universo su belleza
seria perfecta es decir exhibiría diferentes tipos de simetría. Dirac comenzó a
trabajar en una fórmula que tendría todos los tipos de simetría se aisló durante 3
meses, en 1928 presento su ensayo que presento la ecuación de Dirac una
formula sencilla que poseía incluso la simetría de Hendrik Antoon Lorentz que
lograba explicar las propiedades de los electrones incluyendo su movimiento y
magnetismo; posteriormente se descubrió que esta ecuación es aplicable a los
neutrinos y quark que se descubrirían más adelante. Es decir se descubrió la
ecuación que explica las propiedades de las partículas elementales.

De que esta hecho el mundo? Y que fuerzas lo gobiernan?


Ahora desafío era encontrar las fórmulas para las fuerzas que unían las partículas
y las movían
Primero abordaron la más conocida LA FUERZA ELECTROMAGNETICA que es
la fuerza que atrae a los electrones al núcleo y también une a átomos para crear
diversas sustancias.
En los años 30 un físico estadounidense Robert Oppenheimer el llamado el padre
de la bomba atómica se propuso a encontrar la fórmula de la fuerza
electromagnética, plantea que en base a la simetría de Lorentz podría llegar a
descubrir la fórmula de fuerza electromagnética. Open y un grupo de científicos se
centraron en la busca el cuarto tipo de simetría la simetría de geich simetría
irrotacional
Describe una clase belleza en la que si hay un transformador en cada punto del
espacio que midiera la magnitud del electromagnetismo la formula permanecería
igual aunque cambiara el Angulo, los físicos querían desarrollar una fórmula que
tenga los cuatro tipo de bellezas inclusive la irrotacional, entonces salió una nueva
fórmula una evolucionada de la fórmula de Dirac usando las cuatro simetrías y
explicando las propiedades de la fuerza electromagnéticas.
Esta fórmula describía un mundo fascinante los electrones emiten partículas de
luz (fotones) que conectan los electrones al núcleo, idea basada en que las
partículas poseían las fuerzas ayudarían al misterio de composición del universo
Luego de realizar cálculos numéricos llegaban a que la energía del electrón era
infinito lo que significaba que la materia no podía existir lo cual significaba un
problema. En septiembre de 1939 se desencadeno la segunda guerra mundial
donde se detuvo la investigación de la fuerza electromagnética, Robert
Oppenheimer fue nombrado director del proyecto manhattan y creo la bomba
atómica que termino matando miles de personas hasta entonces seguía en
resolverse el problema del infinito. Hasta 1948 Oppenheimer afligido por el daño
que había ocasionado con su creación de la bomba atómica, recibió una carta de
Sin Itiro Tomonaga para resolver el problema del infinito, juntos pudieron
resolverlo cuyos resultados fueron publicados en la revista mundialmente
reconocida physical review.
Chen Ning Yang seria el próximo físico que buscaría la fórmula de la Fuerza
nuclear fuerte y débil de nuevo guiándose de la simetría para buscar las fórmulas
de estas fuerzas
Yang decidió comprobar que si podía encontrar algo similar a la simetría gueich
dentro del núcleo, dio lugar a un concepto desafiante que es conocida como
simetría gueich no conmutativa. En 1954 Yang y su colega publicaron su trabajo
de investigación lograron dar un paso más en la electrodinámica cuántica. Los
científicos creían que tenían los componentes que más se aproximaban a la
Formula Definitiva.
Un nuevo inconveniente se presentó, la ecuación sugería que las partículas
portadoras no tenían masa, lo que obviamente es muy distinto a la realidad, hasta
el momento solo se sabía que el fotón carecía de masa, de las demás partículas
suponían masas distintas de cero. Si la masa de las partículas elementales eran
cero según cálculos significaba que los electrones escaparían de los átomos y
toda la materia se desintegraría no habría masa estable para crear átomos. Los
físicos cayeron a la incógnita del misterio de la masa.
En los años 60 un físico Japones llamado Nambu logro resolver la paradoja de la
masa igual a cero en presencia de la belleza matemática. Nambu analizo el
problema del lápiz que cae, lo que nos lleva a pensar que para que en la realidad
ese lápiz quede parado verticalmente debe tener simetría rotacional lo que no se
puede concebir y lo lleva a la ruptura espontanea de la simetría que dice que es
posible que haya simetrías en las leyes de la naturaleza que no sean respetadas
por los fenómenos físicos es decir una ruptura espontanea de la simetría. El físico
en base al problema del lápiz consiguió demostrar que la belleza perfecta estaba
destinada a desmoronarse y por lo tanto dio origen a la masa en el mundo.
Demostró que los quarks si tenían masa
Apareció el concepto del bosson de Higg, los físicos tenían que atribuir masa a los
electrones protones neutrino y partículas de interacción débil
En Texas Steven Weinberg decidió trabajar sobre el concepto de ruptura de la
simetría de Nanbu para demostrar que además de los quarks las demás partículas
elementales también tenían masa. Finalmente decidió introducir en su teoría una
partícula que nadie pensó que podía existir en el mundo. La teoría abrió un nuevo
campo un nuevo tipo de fuerza, un campo que adquiere valor en un lugar vacío
incluso lejos de cualquier fuente y que se extiende por todo el universo, es el
campo que rompe con toda la simetría. Weinberg uso como referencia el trabajo
de Peter Higgs, que establecía que si el boson de higgs existía en realidad la
simetría de belleza matemática se rompería espontáneamente y las partículas
elementales y las partículas transportadoras de fuerza adquirirían masa. Se dice
que esta partícula esta considerablemente ausente al principio pero después
ocupa los espacios en forma espontánea, según Weinberg las partículas como los
electrones son bloqueados por el bosones de higgs y les resulta más difícil
moverse, esa dificultad para moverse es la que sentimos como masa, Weinberg
presento su ensayo en 1967, su ensayo logro atribuir masa a electrones y
partículas de interacción débil usando la idea de boson de higgs. Muchos físicos
no estaban conformes con el ensayo presentado
En el 2012 recién se pudo hacer un experimento en el centro experimental donde
se podía lanzar energía de una magnitud sin precedente a un único punto del
espacio se detectaron señales del boson de higgs. Se logró demostrar que la
teoría de Weinberg era cierta
Los físicos habían llegado al modelo estándar que explica los cuatro tipos de
partículas elementales y las tres fuerzas que conforman el universo. Comprenden
la historia del universo a partir del Big Bang de la siguiente forma, el universo
comenzó según el plano que inicialmente mantuvo su perfecta simetría, en ese
momento las partículas elementales carecían de masa y volaban diseminadas,
pero más tarde por la ruptura espontanea de la simetría producida por el boson de
higgs las partículas elementales adquirieron masa, como resultado de la masa
adquirida las partículas se unieron para formar átomos, comenzaron a aparecer
estrellas y crearse las galaxias, incluso nosotros los humanos existamos en el
mundo se cree que también ha formado parte de la fórmula definitiva.
Gracias al descubrimiento de boson de higgs se dice que no hay fenómeno en el
mundo que no pueda explicarse por medio del modelo estándar. Los físicos
trabajan hasta el día de hoy en su próximo objetivo tener en cuenta la fuerza
gravitacional piensan que al no tener en cuenta la gravedad nunca se podrá
descubrir la fórmula definitiva

20) Cuantos quarks y de qué tipo son los que componen el protón y el
neutrón.
El protón (p) está formado por dos quarks arriba y un quark abajo y el neutrón (n) por
un quark arriba y dos quarks abajo.
El quark arriba es una partícula elemental que pertenece a la primera generación de
quarks. Tiene una carga eléctrica igual a +⅔ de la carga elemental y un espín de ½,
con lo cual es un fermión y cumple el principio de exclusión de Pauli.
El quark abajo es una partícula elemental que pertenece a la primera generación de
quarks. Tiene una carga eléctrica igual a −⅓ de la carga elemental y un espín de ½,
con lo cual es un fermión y cumple el principio de exclusión de Pauli. Junto con el
quark arriba y los electrones, forma toda la materia que podemos ver y de la que
estamos hechos, gracias a que estas tres partículas son estables y no se desintegran
o decaen más.
Como todos los quarks, el quark arriba y el quark abajo tienen cargas de color, y
sienten la interacción fuerte mediante la emisión y absorción de gluones. Al sentir ésta
interacción no se encuentran a éstas partículas aisladas, se encuentran formando
hadrones con uno o dos quarks más.

Fuentes:
 https://astrojem.com/teorias/protones.html
www.principiamarsupia.com/tag7electrones/

21) De que está compuesto el electrón, está constituido por quarks?


Un electrón no tiene componentes o subestructura conocida. No está formado de
quarks, sino que también es una partícula elemental como los propios quarks, puntual
y sin tamaño. Pertenece a una segunda familia de fermiones llamada
leptones, participan en las interacciones fundamentales, tales como la gravedad,
el electromagnetismo y la fuerza nuclear débil. Como toda la materia, posee
propiedades mecánico-cuánticas tanto de partículas como de ondas, de tal manera
que pueden colisionar con otras partículas y pueden ser difractadas como la luz. Esta
dualidad se demuestra de una mejor manera en experimentos con electrones a causa
de su ínfima masa. Como los electrones son fermiones, dos de ellos no pueden
ocupar el mismo estado cuántico, según el principio de exclusión de Pauli.

22) ¿Qué son los leptones, mesones, hadrones y bosones?

 Un leptón es una partícula con espín 1/2 en el caso de los neutrinos y +/- 1/2


en los demás leptones (un fermión) que no experimenta interacción fuerte. Los
leptones forman parte de una familia de partículas elementales conocida como
la familia de los fermiones, al igual que los quarks.
Un leptón es un fermión fundamental sin carga hadrónica o de color. Existen
seis leptones y sus correspondientes antipartículas: el electrón, el muón,
el tau y tres neutrinos asociados a cada uno de ellos.
Entre los leptones se establecen interacciones débiles y del tipo
electromagnética, si poseen cargas eléctricas. Los leptones con carga eléctrica
se encuentran casi siempre unidos a un neutrino asociado.
Los leptones obedecen a una simple relación conocida como fórmula de
Koide. Cuando las partículas interactúan, generalmente el número de leptones
del mismo tipo (electrones y electrones neutrinos, muones y muones neutrinos,
leptones tau y tau neutrinos) se mantienen igual, este principio es conocido
como la conservación del número de leptón.
 En física de partículas, un mesón es un bosón que responde a la interacción
nuclear fuerte, de espín nulo o entero y carga bariónica nula.
En el modelo estándar, los mesones son partículas compuestas en un estado
quark-antiquark.
Originalmente, se predijo que los mesones eran los portadores de la fuerza
que une al protón y al neutrón, de ahí su nombre. Cuando fue descubierto, el
muón se asignó a esta familia de masa similar y fue bautizado como “mesón
mu”, sin embargo no mostró interacción fuerte con la materia nuclear: es en
realidad un leptón. El pion fue el primer mesón auténtico en ser descubierto.
Los mesones, identificados por Powell en 1947 en los rayos cósmicos y cuya
existencia había sido postulada por Yukawa en 1935, son partículas
inestables, de masa generalmente comprendida entre la de los electrones y la
de los neutrones. Los más estables, cuya vida media son del orden de la
cienmillonésima de segundo, son los piones y los kaones.
 Un hadrón es una partícula subatómica compuesta de quarks, caracterizada
por relacionarse mediante interacciones fuertes; aunque también pueden
manifestarse mediante interacciones débiles y electromagnéticas, en los
hadrones predominan las interacciones fuertes, que son las que mantienen la
cohesión interna en el núcleo atómico.
Estas partículas presentan dos categorías:
Los bariones: formados por tres quarks con cargas de color diferente, se dice
que su carga de color global es “neutra” o “blanca”, al tener las tres cargas de
color compensadas entre sí. Los neutrones y protones son ejemplos de
bariones.
Los mesones: formados por un quark y un antiquark. Los piones son ejemplos
de mesones, su presencia ha sido usada para explicar cómo permanecen
unidos los neutrones y protones en el núcleo atómico. Los mesones se
comportan como bosones.
La mayoría de los hadrones pueden ser clasificados con el modelo quark que
implica que todos los números cuánticos de los bariones son derivados de
aquellos de los quarks de valencia.
 Bosones:
Es uno de los dos tipos básicos de las partículas elementales de la naturaleza,
el otro tipo son los fermiones.
Entre los ejemplos de bosones se incluyen partículas fundamentales como
fotones, gluones, bosones W y Z (los cuatro bosones de gauge, portadores de
fuerza del Modelo Estándar), el bosón de Higgs, y el todavía teórico “gravitón”
de gravedad cuántica; partículas compuestas y algunas cuasipartículas (pares
de Cooper, plasmones y fonones).
Los bosones se caracterizan por:
 Tener un espín entero (0, 1, 2,3,...).
 No cumplen el principio de exclusión de Paul y siguen la estadística de
Bose-Einstein.
 La función de onda cuántica que describe sistemas de bosones, es
simétrica respecto al intercambio de partículas.
http://es.m.wikipedia.org/wiki/Leptón
http://es.m.wikipedia.org/wiki/Mesón
http://es.m.wikipedia.org/wiki/Hadrón
http://es.m.wikipedia.org/wiki/Bosón
23) ¿QUÉ ES EL BOSÓN DE HIGGS?
El bosón de Higgs es un tipo de partícula elemental que se cree tiene un papel
fundamental en el mecanismo por el que se origina la masa de las partículas
elementales. Es una partícula elemental hipotética, masiva e indivisible cuya
existencia es predicha por el modelo estándar de la física de partículas. Desempeña
un papel importante en la explicación de la masa de otras partículas elementales.
No posee spin, carga eléctrica ni color, es muy inestable.
No se puede observar directamente ya que se desintegra casi inmediatamente. Hay
que producirlo en aceleradores de partículas y reconstruirlo a partir de las partículas
producidas en su desintegración.
Muchas de las propiedades del bosón de Higgs, tal y como se describe en el modelo
estándar, están totalmente determinadas. El bosón de Higgs constituye
el cuanto del campo de Higgs, (la más pequeña excitación posible de este campo).
Según el modelo propuesto, tiene spin 0 (lo que se denomina un bosón escalar). No
posee carga eléctrica ni carga de color, por lo que no interacciona con el fotón ni con
los gluones. Sin embargo interacciona con todas las partículas del modelo que poseen
masa: los quarks, los leptones cargados y los bosones W y Z de la interacción débil.
Sus constantes de acoplo, que miden cuán intensa es cada una de esas
interacciones, son conocidas: su valor es mayor cuanto mayor es la masa de la
partícula correspondiente. En la versión original del modelo estándar, no se incluía la
masa de los neutrinos ni, por tanto, una interacción entre estos y el Higgs. Aunque
ésta podría explicar la masa de los neutrinos, en principio su origen puede tener una
naturaleza distinta.
El bosón de Higgs es además su propia antipartícula.

24) Por que el bosón de Higgs genera masa a algunas partículas y a otras
no…
El campo de Higgs sería una especie de continuo que se extiende por todo el espacio,
formado por un incontable número de bosones de Higgs. La masa de las partículas
estaría causada por una “fricción” con el campo de Higgs, por lo que las partículas
que tienen una fricción mayor con este campo tienen una masa mayor y aquellas que
no interactúan en absoluto con el campo carecen de ella.
Tanto las partículas W y Z, como el fotón son bosones sin masa propia, los primeros
muestran una enorme masa porque interactúan fuertemente con el campo de Higgs, y
el fotón no muestra ninguna masa porque no interactúa en absoluto con el campo de
Higgs.
Fuentes:
 https://es.wikipedia.org/wiki/Bos%C3%B3n_de_Higgs
 https://www.i-cpan.es/media/guia (Centro Nacional de Física de Partículas,
Astropartículas y Nuclear)

25) Cuales son las partículas atómicas y subatómicas, indique las


características de cada uno de ellas
Las partículas atómicas son:
 Electrones: los electrones tienen una carga negativa y son las partículas
subatómicas más livianas que tienen los átomos.
 Protones: Partícula de carga eléctrica positiva igual a una carga elemental, y
1,67262 × 10–27 kg y una masa 1837 veces mayor que la del electrón.
 Neutrones: Partículas carentes de carga eléctrica y una masa un poco mayor
que la del protón (1,67493 × 10–27 kg).

Las partículas subatómicas son más pequeñas que el átomo y puede ser una
partícula elemental o una compuesta por otras partículas subatómicas. Las partículas
subatómicas son:
 Quarks: son los constituyentes fundamentales de la materia. Varias especies
de quarks se combinan de manera específica para formar partículas. Son las
únicas partículas fundamentales que interactúan con las cuatro fuerzas
fundamentales. Son partículas de espín 1/2, por lo que son fermiones. Forman
junto a los leptones, la materia visible
 Neutrinos: son partículas subatómicas de tipo fermiónico, sin carga y espín
1/2.Su interacción con las demás partículas es mínima, por lo que pasan a
través de la materia ordinaria sin apenas perturbarla. No se ven afectados por
las fuerzas electromagnética o nuclear fuerte, pero sí por la fuerza nuclear
débil y la gravitatoria.
 Bosones: el bosón es una partícula atómica o subatómica, de spin entero o
nulo, que cumple los postulados de la estadística de Bose-Einstein e incumple
el principio de exclusión de Pauli. Son bosones las partículas alfa, los fotones y
los nucleídos con un número par de nucleones.
 Gravitón: es una partícula elemental hipotética de tipo bosónico que sería la
transmisora de la interacción gravitatoria; debe ser un bosón de espín par (2
en este caso), ya que está asociado a un campo clásico tensorial de segundo
orden.
 Positrones: es una partícula de tipo elemental cuya carga eléctrica resulta
igual a la que posee el electrón, aunque positiva. Por esta característica, se
dice que el positrón es la antipartícula de esta partícula atómica.
 Fermiones: es una partícula perteneciente a una familia de partículas
elementales caracterizada por su momento angular intrínseco o spin. Existen
dos tipos de fermiones elementales, que son: Los quarks y los leptones. Según
la teoría cuántica, el momento angular de las partículas sólo puede adoptar
determinados valores, que pueden ser múltiplos enteros de una determinada
constante h (Constante de Planck) o múltiplos semienteros de esa misma
constante. Los fermiones, entre los que se encuentran los electrones, los
protones y los neutrones, tienen múltiplos semienteros de h, por ejemplo ±1/2h
o ±3/2h. Los fermiones cumplen el principio de exclusión. El núcleo de un
átomo es un fermión o bosón, dependiendo de si el número total de sus
protones y neutrones es par o impar respectivamente.
 Hadrones: un hadrón es una partícula subatómica formada por quarks que
permanecen unidos debido a la interacción nuclear fuerte entre ellos.
 Leptones: es una partícula con espín -1/2 en el caso de los neutrinos y +/- 1/2
en los demás leptones que no experimenta interacción fuerte. Los leptones
forman parte de una familia de partículas elementales conocida como la familia
de los fermiones.
 Mesones: cada una de las partículas elementales sometidas a interacciones
fuertes, son los hadrones más ligeros, de spin nulo o entero y carga bariónica
nula. Están formados por dos quarks (un quark y un anti quark).

Bibliografía: http://es.wikipedia.org/wiki/Part%C3%ADcula_subat%C3%B3mica
http://amaro-theteacher.blogspot.com.ar/2010/08/particulas-
atomicaselectron.html

26) ¿Que son las ondas gravimétricas, descubiertas hace poco, con el
choque de
dos agujeros negros?
En física una onda gravitatoria es una perturbación del espacio-tiempo
producida por un cuerpo masivo acelerado. La existencia de ese tipo de onda,
que consiste en la propagación de una perturbación gravitatoria en el espacio-
tiempo y que se transmite a la velocidad de la luz, fue predicha por Einstein en
su teoría de la relatividad general.
La primera observación directa de las ondas gravitatorias se logró el 14 de
septiembre de 2015; los autores de la detección fueron los científicos del
experimento LIGO que, tras un análisis minucioso de los resultados,
anunciaron el descubrimiento al público el 11 de febrero de 2016, cien años
después de que Einstein predijera la existencia de las ondas. La detección de
ondas gravitatorias constituye una nueva e importante validación de la teoría
de la relatividad general.
Antes de su descubrimiento solo se conocían pruebas indirectas de ellas,
como el decaimiento del período orbital observado en un púlsar binario. En
marzo de 2014, el experimento BICEP2 anunció la detección de modos-B en la
polarización del fondo cósmico de microondas, lo que sugería una prueba
indirecta de ondas gravitatorias primordiales. Los estudios combinados con el
telescopio PLANCK revelaron que los resultados de BICEPS2 podían ser
explicados por la interferencia del polvo cósmico por lo que fueron dejados de
lado a falta de más evidencias.
Las ondas gravitatorias constituyen fluctuaciones generadas en la curvatura
del espacio tiempo que se propagan como ondas a la velocidad de la luz. La
radiación gravitatoria se genera cuando dichas ondas son emitidas por ciertos
objetos o por sistemas de objetos que gravitan entre sí.
La amplitud predicha para estas ondas y los efectos observables son muy
débiles, de modo que su detección directa es extremadamente difícil. La
amplitud, de hecho, es muy inferior al ruido vibracional procedente de otras
fuentes. Tan solo los fenómenos más violentos del universo producen ondas
gravitatorias susceptibles de ser detectadas.
Los objetos que deberían emitir ondas de gravedad detectables de manera
directa son objetos muy masivos sometidos a fuertes aceleraciones o cuerpo
masivos no homogéneos rotando a gran velocidad. Se espera poder encontrar
ondas gravitatorias producidas en fenómenos cataclísmicos como:
 La explosión de una supernova.
 La formación de un agujero negro.
 El choque de cuerpos masivos como estrellas de neutrones o la
coalescencia de agujeros negros.
 La rotación de una estrella de neutrones heterogénea.
 Radiación gravitatoria remanente del Big Bang. Este último caso ofrecería
datos únicos sobre la formación del universo en el periodo anterior a la edad
oscura del universo en la que el universo era opaco a la radiación
electromagnética.
 Cualquier objeto con masa y aceleración produce ondas gravitatorias,
dependerá de la precisión del equipo para poder cuantificarlas, actualmente
solo hemos logrado captarlas con sucesos de una muy elevada energía.
Fuentes: https://es.wikipedia.org/wiki/Onda_gravitatoria
27) Que son las partículas virtuales y los bosones de gauge, de ejemplos.
Una partícula virtual es una partícula elemental que existe durante un tiempo tan corto
que debido al principio de indeterminación de Heisenberg no es posible medir sus
propiedades de forma exacta. El término «partícula virtual» se utiliza en
contraposición a «partícula real» para explicar las infracciones que aquella parece
cometer contra las leyes de conservación durante sus interacciones.
El término “partícula virtual” se lo utiliza en contraposición a “partícula real” para
explicar las infracciones que aquella parece cometer contra las leyes de la
conservación durante sus interacciones.
Ejemplo: los fotones son partículas reales cuando observamos en cualquier tipo de
radiación electromagnética, como la luz o rayos x. Cuando trasmite la interacción
electromagnética entre partículas como carga eléctrica los fotones son virtuales.
En física de partículas, el bosón de gauge es un bosón que actúa como portador de
una interacción fundamental de la naturaleza. Más específicamente, la interacción de
las partículas elementales descrita por la teoría de campo de gauge se ejerce por
medio de los intercambios de los bosones de gauge entre ellas, usualmente
como partículas virtuales.
En el modelo estándar, hay cuatro tipos de bosones de gauge: fotones, bosones W y
Z y gluones. Cada uno corresponde a tres de las cuatro interacciones: fotones son los
bosones de gauge de la interacción electromagnética, los bosones W y Z traen
la interacción débil, los gluones transportan la interacción fuerte. El gravitón, que sería
responsable por la interacción gravitacional, es una proposición teórica que a la fecha
no ha sido detectada. Debido al confinamiento del color, los gluones aislados no
aparecen a bajas energías. Lo que sí se podría es dar lugar a bolas de
gluones masivas (este dato no está confirmado hasta el momento).
Ejemplo: entre sus representantes más conocidos se encuentran los Fotones y el
Bosón de Higgs.
https://es.wikipedia.org/wiki/Bos%C3%B3n_de_gauge
https://www.emiliosilveravazquez.com/blog/2016/03/31/%C2%BFque-es-un-boson-
%C2%BFy-que-es-un-boson-gauge/
https://es.wikipedia.org/wiki/Part%C3%ADcula_virtual
https://abcienciade.wordpress.com/2009/11/30/particulas-virtuales-i/
28) QUE ES EL ACELERADOR DE HADRONES QUE ESTÁ ENTRE FRANCIA Y SUIZA
Y QUE SE QUIERE OBTENER

El Gran Colisionador de Hadrones, GCH (en inglés LHC) es un acelerador y


colisionador de partículas ubicado en la Organización Europea para la Investigación
Nuclear (CERN, en francés), se encuentra cerca de Ginebra, en la frontera franco-
suiza. Fue diseñado para colisionar haces de hadrones, más exactamente protones,
siendo su propósito principal examinar la validez y límites del modelo estándar.
El LHC es el acelerador de partículas más grande y energético del mundo. Utiliza el
túnel de 27 km de circunferencia creado para el Gran Colisionador de Electrones y
Protones (LEP en inglés) y más de 2000 físicos de 34 países y cientos de
universidades y laboratorios participaron en su construcción.
Dentro del colisionador dos haces de protones son acelerados en sentidos opuestos
hasta alcanzar el 99,99% de la velocidad de la luz y se los hace chocar entre sí
produciendo altísimas energías a escalas subatómicas que permitirían simular
algunos eventos ocurridos inmediatamente después del big bang.
Este instrumento permitió confirmar la existencia de la partícula conocida como bosón
de Higgs el 4 de julio de 2012.
29) Explique el modelo atómico de Schrödinger, y porqué es distintos a los
otros modelos como el de Bohr.
Bohr había postulado un modelo que funcionaba perfectamente para el átomo de
hidrógeno, pero en los espectros que fueron realizados para otros átomos, se veía
que los electrones aun siendo del mismo nivel energético, poseían energías algo
diferentes, hecho que no respondía el modelo de Bohr, lo que hacía necesaria una
urgente corrección de su modelo. Fue Sommerfeld quién modificó el modelo de Bohr,
al deducir que en cada nivel energético existían subniveles, lo explicó añadiendo
órbitas elípticas y usando la relatividad.
El modelo atómico de Schrödinger definía al principio los electrones como ondas de
materia (dualidad onda-partícula), describiendo de este modo la ecuación ondulatoria
que explicaba el desarrollo en el tiempo y el espacio de la onda material en cuestión.
El electrón con su carácter ondulatorio venía definido por una función de ondas (),
usando una ecuación de ondas sencilla que no era más que una ecuación diferencial
de segundo grado, donde aparecían derivadas segundas de .
δ2 δ2 δ2 82 m
+ + + (E-V)=0
δ x2 δ y2 δ z2 h2
Cuando se resuelve esta ecuación, se ve que la función depende de unos parámetros
que son los números cuánticos, como se decía en el modelo de Bohr. De este modo,
el cuadrado de la función de ondas correspondía con la probabilidad de encontrar al
electrón en una región concreta, lo que nos introducía en el Principio de Heisenberg.
Es por esto, que en el modelo de Schrödinger, aparece un concepto para definir la
región del espacio en la cual habría mayor posibilidad de hallar al electrón: el orbital.
Max Born, poco después interpretó la probabilidad de la función de onda que tenían
los electrones. Esta nueva explicación o interpretación de los hechos era compatible
con los electrones puntuales que tenían la probabilidad de presencia en una región
concreta, lo que venía explicado por la integral del cuadrado de la función de onda de
dicha región, cosa que permitía realizar predicciones, como anteriormente se explica.
De esta manera el modelo atómico de Schrödinger hacía una buena predicción de las
líneas de emisión espectrales, ya fuera de átomos neutros o ionizados. También
conseguía saber los cambios de los niveles de energía, cuando existía un campo
magnético (efecto Zeeman) o eléctrico (efecto Stark).
Además de todo esto, el modelo conseguía dar explicación al enlace químico y a las
moléculas estables.
En conclusión, el modelo Schrödinger, nos hace abandonar por completo el concepto
anterior de los electrones, que venían definidos como pequeñísimas esferas cargadas
que daban vueltas en torno al núcleo, para dar paso a ver los electrones como una
función de onda, y añadiéndonos un útil concepto, el de orbital.

Modelo Atómico de Bohr Modelo Atómico Schrödinger


El Modelo Atómico de Bohr postula que: El Modelo Atómico de Schrödinger:
 Los electrones describen órbitas  Los electrones son ondas de materia
circulares estables alrededor del que se distribuyen en el espacio
núcleo del átomo sin radiar según la función de ondas ().
energía.  Los electrones se distribuyen en
 Los electrones solo se pueden orbitales que son regiones del
encontrar en ciertas órbitas. La espacio con una alta probabilidad de
distancia de la órbita al núcleo encontrar un electrón.
se determina según el número  Se tienen en cuenta los siguientes
cuántico n (n=1, n=2, n=3, ...) : números cuánticos:
radio de la órbita (en Angstroms)  Número cuántico principal (n)
2
 r=0.529 n  Número cuántico secundario o
 Los electrones solo emiten o azimutal (l)
absorben energía en los saltos  Número cuántico magnético
entre órbitas. En dichos saltos (m)
se emite o absorbe un fotón  Número de espín (s)
cuya energía es la diferencia de  En un átomo no pueden haber
energía entre ambos niveles. electrones con los cuatro números
cuánticos iguales

Fuentes:
 http://es.m.wikipedia.org/wiki/Modelo_atómico_de_Schrödinger
 http://sites.google.com/site/cinthyalizbethhdz18/quimica/modelo-atómico-de-
schrodinger
 http://www.quimicas.net/2015/05/el-modelo-atomico-de-schrodinger.html?m=1

30) Cuales son las cuatro fuerzas fundamentales en el Universo, y que


características tiene cada uno de ellas.
La gravitatoria es la fuerza de atracción que un trozo de materia ejerce sobre otro, y
afecta a todos los cuerpos. La gravedad es una fuerza muy débil y de un sólo sentido,
pero de alcance infinito.
La fuerza electromagnética afecta a los cuerpos eléctricamente cargados, y es la
fuerza involucrada en las transformaciones físicas y químicas de átomos y moléculas.
Es mucho más intensa que la fuerza gravitatoria, tiene dos sentidos (positivo y
negativo) y su alcance es infinito.
La fuerza o interacción nuclear fuerte es la que mantiene unidos los componentes de
los núcleos atómicos, y actúa indistintamente entre dos nucleones cualesquiera,
protones o neutrones. Su alcance es del orden de las dimensiones nucleares, pero es
más intensa que la fuerza electromagnética.
La fuerza o interacción nuclear débil es la responsable de la desintegración beta de
los neutrones; los neutrinos son sensibles únicamente a este tipo de interacción. Su
intensidad es menor que la de la fuerza electromagnética y su alcance es aún menor
que el de la interacción nuclear fuerte.
Bibliografía: http://www.astromia.com
31) ¿Que es fusión nuclear y fisión nuclear?
Tanto la fisión como la fusión nuclear son reacciones nucleares que liberan la energía
almacenada en el núcleo de un átomo. Pero hay importantes diferencias entre ambas.
La fisión nuclear es la separación de un núcleo pesado en núcleos más pequeños,
mientras que la fusión nuclear es la combinación de núcleos ligeros para crear uno
más grande y pesado.
Fisión
La fisión nuclear se trata de una reacción en la cual un núcleo pesado, al ser
bombardeado con neutrones, se convierte en inestable y se descompone en dos
núcleos, cuyas masas son del mismo orden de magnitud, y cuya suma es ligeramente
inferior a la masa del núcleo pesado, lo que origina un gran desprendimiento de
energía y la emisión de dos o tres neutrones.
Estos neutrones, a su vez, pueden ocasionar más fisiones al interaccionar con otros
núcleos fisionables que emitirán nuevos neutrones, y así sucesivamente. Este efecto
multiplicador se conoce con el nombre de reacción en cadena. En una pequeña
fracción de tiempo, los núcleos fisionados liberan una energía un millón de veces
mayor que la obtenida, por ejemplo, en la reacción de combustión de un combustible
fósil.
Si se logra que solo uno de los neutrones liberados produzca una fisión posterior, el
número de fisiones que tienen lugar por unidad de tiempo es constante y la reacción
está controlada.
Gráfico: En el proceso de fisión nuclear, el uranio 235 (el único
isótopo fisible del uranio que se encuentra en la naturaleza) se
combina con un neutrón para formar un intermediario inestable,
el cual rápidamente se divide (en una de las posibles
reacciones) en bario 144 y criptón 89, más tres neutrones.

Este es el principio de funcionamiento en el que se basan los reactores nucleares que


se encuentran en operación en la actualidad para la generación de energía eléctrica.
 
Fusión
La fusión nuclear es una reacción en la que dos núcleos muy ligeros se unen para
formar un núcleo estable más pesado, con una masa ligeramente inferior a la suma de
las masas de los núcleos iniciales. Este defecto de masa da lugar a un gran
desprendimiento de energía. La energía producida por el Sol tiene este origen.
Para que tenga lugar la fusión, los núcleos cargados positivamente deben
aproximarse venciendo las fuerzas electrostáticas de repulsión. En la Tierra, donde no
se puede alcanzar la gran presión que existe en el interior del Sol, la energía
necesaria para que los núcleos que reaccionan venzan las interacciones se puede
suministrar en forma de energía térmica o utilizando un acelerador de partículas.
Una reacción típica de fusión nuclear consiste en la combinación de dos isótopos del
hidrógeno, deuterio y tritio, para formar un átomo de helio más un neutrón.

Gráfico: El deuterio y el tritio se combinan por medio de la fusión nuclear para formar
helio mas un neutrón.
Un ejemplo de fusión natural es la energía producida en el
interior del Sol. Los átomos de hidrógeno, sometidos a
enormes presiones gravitatorias, colisionan entre sí y se
fusionan a temperaturas muy elevadas (en torno a 15 millones
Cº). Cada segundo se fusionan 600 millones de toneladas de
hidrógeno, formando helio.
En la actualidad aún no hay reactores comerciales de fusión,
ya que es una tecnología por el momento experimental. Un
ejemplo es el reactor experimental de fusión ITER que se está
construyendo en Cadarache (Francia). Se trata de un proyecto de investigación
científica y de cooperación internacional que tiene como objetivo determinar la
viabilidad tecnológica y económica de la fusión nuclear por confinamiento magnético.
https://www.foronuclear.org/es/el-experto-te-cuenta/122516-que-diferencia-hay-entre-
fision-y-fusion-nuclear
32) ¿Cuál es la temperatura en el borde extremo del sol, y la temperatura en el
centro del sol?
La temperatura del núcleo del Sol es cerca de 27 millones de grados Fahrenheit, o 15
millones de grados Centígrados. La superficie del Sol presenta unos 10000 grados
Fahrenheit o 5500 grados Centígrados.

29) Importante: Hacer un resumen de: El Principio de la Incertidumbre,


Entrelazamiento cuántico, La dualidad de las partículas, El experimento de la
doble ranura, El colapso de la onda, Superposición cuántica y Hay gato
encerrado, del libro El universo que somos

El Principio de La Incertidumbre

Este principio fue introducido a la teoría cuántica en 1927, por el físico alemán Werner
Heisenberg. Como se sabe, toda partícula tiene posición, trayectoria y, por lo tanto,
velocidad. Heisenberg formuló que se puede calcular la velocidad o la ubicación de
una partícula en un momento especifico, pero no se pueden calcular ambos valores a
la vez, porque si se calcula la velocidad, la ubicación (es decir su posición y
momentum) cambia, y viceversa.
Entonces existe una incertidumbre, una falta de certeza, sobre la posición y
momentum exacto de la partícula. Con este principio la teoría cuántica saca a relucir
su dualidad: se pueden determinar con precisión ciertas características físicas de las
partículas atómicas, pero al hacerlo se elimina la posibilidad de precisamente
determinar alguna otra característica complementaria. Es como si las partículas no
quisieran estar “atadas” a una ubicación específica, de hecho lo que se puede calcular
es solamente la probabilidad de encontrar una partícula aquí o allá, algo llamado
“ondas probabilísticas”.
La física cuántica es una teoría probabilística por naturaleza, las partículas no existen
en un lugar definitivo, sino en una “nube” de posibilidades de estar en un lugar o en
otro. Por ejemplo, se dice que un electrón tiene un 20% de encontrarse en un lugar,
un 10% de encontrarse en otro y un 70% de encontrarse en otro distinto.
Además este principio introduce indirectamente una variable: el espectador o la
persona que calcula los datos de la ubicación de la partícula.

Entrelazamiento Cuántico

Es otra extraña propiedad de las partículas atómicas. Hay partículas que pueden crear
una inusual conexión entre ellas, quedando unidas en una de sus propiedades. Por
ejemplo uniones donde si el spin de una partícula cambia, inmediatamente el spin de
la otra entrelazada cambia también, y esto lo hacen sin importar la distancia entre
ambas (milímetros, kilómetros o años luz de distancia).
Esto significa que si alguna fuerza, energía o algo similar es lo que les avisa del
cambio de spin de su compañera, esa fuerza estaría viajando más rápido que la
velocidad de la luz, lo cual estaría en desacuerdo con la Teoría de la Relatividad de
Einstein (que dice que nada viaja más rápido que la velocidad de la luz).
Einstein, en su momento, se refirió a esta inusual propiedad como una “acción
fantasmal a distancia”, algo como lo que se conoce como vudú haitiano, donde al
pinchar un muñeco con alfileres hace que un marido infiel se retuerza de dolor en el
mismo lugar del pinchonazo instantáneamente, aunque se encuentre al otro lado del
mundo.
Einstein trato de desacreditar desde los inicios de la física cuántica, esta idea; fue en
1964, a 11 años de su muerte, que John Bell resolvió el problema teorizando un
escenario donde se podría medir experimentalmente el spin de dos partículas
entrelazadas separadas por una gran distancia, este experimento se llevó a cabo en
los años 1980 y probó exitosamente que el entrelazamiento cuántico es un fenómeno
real.
El comprobar que las partículas poseen esta extraña propiedad reveló además una
nueva propiedad de la realidad: la no-localidad, esto hace referencia a que el universo
no es un sistema local para ciertos eventos físicos, porque algo que sucede “por aquí”
puede afectar algo que sucede “por allá” sin importar la distancia entre ellos.

La Dualidad de Las Partículas

Se refiere a que las partículas del átomo se comportan de dos maneras totalmente
diferentes dependiendo del observador, pueden comportarse como partículas o como
ondas, sin dejar de ser una sola cosa. Como, por ejemplo, ocurre con el encendedor-
abridor, un pequeño aparato que no es ni un encendedor ni un abridor, sino ambos a
la vez, lo que define su uso final es quien lo utilice y su necesidad de fumar, beber, o
ambas.

El Experimento de La Doble Ranura

Desde inicios de los años 1800 es sabido que la luz se comporta como una onda,
luego gracias al Efecto Fotoeléctrico, donde metales irradiados con luz o rayos
ultravioleta emiten fotones, y al surgimiento de la física cuántica, se concluyó que la
luz exhibe ambas propiedades, se comporta como onda aunque su componente es
una partícula: el fotón. Eventualmente se descubrió que esta dualidad de
comportamiento onda/partícula no es algo exclusivo de los fotones de luz, sino
también de las otras partículas que componen el átomo.
Esta dualidad se puede demostrar mediando el experimento conocido como
“Experimento de la Doble Ranura”, que funciona de la siguiente manera: un aparato
que dispara partículas (fotones, electrones, etc.) se apunta hacia una placa sólida que
tiene una delgada ranura, al otro lado de la placa hay una pantalla que registra donde
impacto la partícula disparada. Bajo estas condiciones el experimento no muestra
irregularidades, se obtienen los resultados esperados, al disparar partículas (sea en
grupos o de una en una), la pantalla detrás de la placa registra una impresión de
puntos que forman una línea recta justo del tamaño y posición de la ranura que hay en
la placa.
Pero algo raro ocurre cuando se abre una segunda ranura en la placa. La observación
que uno esperaría es que en la pantalla se registren dos líneas paralelas, sin
embargo, lo que se registran son varias líneas paralelas de diferentes intensidades (5
o más), quedan impactos registrados incluso en lugares que están bloqueados por la
placa, formando un patrón llamado de máxima y mínima; este registro es el que se
obtendría si lo que pasara por las dos ranuras fuera una onda, pero en el experimento
solo se están disparando partículas una a una.

Esta es la parte extraña del experimento, porque al haber dos ranuras en la placa, las
partículas dejan de comportarse como partículas y asumen una “personalidad” de
onda.
Matemáticamente para que el patrón de onda se registre, cuando lo que pasa por las
ranuras es una sola partícula, algo asombroso debe suceder: una partícula debe
pasar por ambas ranuras a la misma vez para luego interferir consigo misma, no es
que se parte en 2, sino que una misma partícula pasa por 2 lugares diferentes al
mismo tiempo. Esto es algo que todavía no podemos explicar, ¿cómo algo puede
estar en dos lugares a la misma vez?

El Colapso de La Onda

Al inicio nadie creía posible que una partícula pudiera estar en varios lugares a la
misma vez, pero eso era precisamente lo que el resultado del experimento de la doble
ranura indicaba, asique un intento por forzar a las partículas a revelar exactamente
por cuál de las dos ranuras estaban realmente pasando, el experimento se modificó y
se instalaron sensores a las salidas de ambas ranuras.
En esta versión del experimento se dispararon las partículas una a una monitoreadas
por sensores de posición, al dispararlas las engañosas partículas hicieron algo
nuevamente inusual: dejaron de comportarse como ondas y lo que quedo impreso en
la pantalla fueron dos líneas verticales, las partículas volvieron a comportarse como
pequeñas pelotas que solo pasan por una ranura a la vez. En el instante en que los
sensores se apagan, regresa el patrón de onda donde una partícula pasa por ambas
ranuras a la vez.

El introducir esta variante (la observación), es lo que hace la diferencia en si las


partículas se comportan como ondas o como partículas. Este cambio súbito es
llamado el “colapso de la onda”, y es el que introduce dos conceptos claves: el
observador y lo observado.
Las preguntas que surgen de estos resultados trascienden el experimento:
o ¿por qué el hecho de monitorearlas hace que las partículas se comporten de
una manera, pero cuando no las vemos hacen otra cosa diferente?
o ¿qué necesidad hay de incluir un observador para determinar el resultado de
este experimento?
o Aquellas partículas que existen en otros lugares del universo donde nadie las
ve o las rastrea, ¿son ondas o partículas?
Aunque, por el momento, no hay una solución definitiva, hay varias propuestas
provenientes de diversos campos: matemáticas, probabilísticas, metafísicas y hasta
filosóficas.

Superposición Cuántica

Superposición se refiere a que dos o más cosas están en varios estados


(superpuestos) a la misma vez, como por ejemplo: estar ciegos y con vista a la vez,
estar ebrios y sobrios a la vez, que algo se encuentre encendido y apagado a la vez,
etc.
Los cálculos de la física cuántica indican que las partículas atómicas también poseen
esta propiedad de superposición, ya que en un átomo cualquiera hay partículas que
pueden estar en diferentes estados a la vez, este es un hecho que se comprueba con
el experimento de las ranuras.
Esta es otra rareza del comportamiento del átomo, en su reino submicroscópico: las
cosas pueden estar en muchos lugares a la misma vez.
Si esta propiedad de los átomos fuera solamente teórica podríamos inferir que es
causada por algún problema con las matemáticas del postulado, pero cuando existe
un experimento como el de la doble ranura, entonces no podemos refutar que la
superposición verdaderamente sucede, y aunque no lo entendamos debemos aceptar
que las cosas de las que estamos hechos pueden estar en varios lugares a la vez.

Hay Gato Encerrado


Los extraños estados cuánticos no solo se han podido probar con experimentos
usando las diminutas partículas del átomo, sino que incluso se han podido reproducir
con objetos lo suficientemente grandes como para verse con un microscopio.
La línea entre el estado de un objeto diminuto, como una partícula atómica, y uno
grande, como un gato, es muy discernible (tanto así que no vemos gatos en
superposición en varios lugares a la vez). Con esta idea en 1935 el físico austriaco
Erwin Schrödinger trato de ejemplificar lo poco real que estos estados cuánticos
superpuestos significan a grandes escalas.
Schrödinger propuso el siguiente escenario: un gato se encuentra dentro de una caja
cerrada, en la caja hay un frasco con veneno que se libera mediante un dispositivo
mecánico que se dispara cuando un átomo radioactivo decae a cierto nivel; como no
se puede calcular con precisión cuando decaerá el átomo por su estado de
incertidumbre, se debe asumir que en determinado momento el gato se encuentra
vivo y muerto a la vez, la única manera de averiguar su estado actual es abriendo la
caja y observándolo. Este es el famoso experimento teórico apodado “El Gato de
Schrödinger”, donde el felino se encuentra vivo y muerto a la vez, es decir en
superposición.

30) importante: Haga un resumen del capitulo: LOS MATERIALES HOY ,


del libro de Guillermo Aguilar Sahagun, " EL HOMBRE Y LOS
MATERIALES".
El estado actual de la investigación de los materiales atiende tanto a necesidades
generales de la humanidad como así también a requerimientos muy particulares de
ciertas comunidades. Son muchos los ejemplos con respecto a la ciencia-ingeniería
de los materiales. Veamos tres temas importantes:
Aleaciones con memoria de forma: Para entender esto veamos el siguiente
experimento: Una cinta de material similar al latón, en forma de semicírculo, se
aproxima a una flama. Pronto empieza a enderezarse hasta tomar la forma de una
regla, es decir, ahora está recta. A continuación se le sumerge en un vaso que
contiene agua y súbitamente se curva para tomar su forma inicial de semicírculo. El
experimento se repite una y otra vez, y la cinta invariablemente "recuerda" que
cuando está en presencia de una flama (60°C) debe estar recta, y que cuando está
expuesta al ambiente (20°C) debe tomar la forma de semicírculo.
Este fenómeno sorprendente es llamado: memoria de forma doble, ya que el material
guarda memoria de las formas que debe adoptar cuando se encuentre a dos
temperaturas bien determinadas.
Microscópicamente, el llamado efecto memoria de forma consiste en el
desplazamiento de los átomos en ciertas aleaciones cuando estas se enfrían
bruscamente.
Si bien fue el acero el primer material en el que se observó este tipo de
transformación, no es el único en el que ocurre, también se puede dar en aleaciones
no ferrosas como el níquel-titanio. Además, en estas aleaciones es posible obtener la
transformación martensitica no solo mediante cambios de temperatura sino también
por esfuerzo mecánico.
Biomateriales: Estos materiales son utilizados para ser implantados o incorporados
dentro de un organismo vivo. Se ha tenido que hacer investigaciones con respecto a
su funcionamiento y de su interrelación con el resto del organismo. La ciencia médica
ha conseguido con éxito el trasplante de órganos, sustituyendo el dañado por otro
igual, perteneciente a otra persona. La ciencia de materiales, por su parte, ha hecho
posible la sustitución de elementos vivos por elementos artificiales, así como por
ejemplo la colocación de una válvula cardiaca construida con titanio y nylon en vez de
una válvula “original”.
Esta rama de la ciencia- ingeniería de materiales que se ha desarrollado en apoyo
directo a la vida recibe en nuestros días una gran atención a nivel mundial.
Los superconductores “calientes”: El viejo fenómeno de superconductividad se
manifiesta fundamentalmente en dos hechos experimentales:
-Un material superconductor es aquel que, en una temperatura determinada, presenta
una resistencia eléctrica igual a cero.
-En el estado superconductor el material se comporta como un diamagneto perfecto,
es decir, se opone a que un cuerpo magnético penetre en él.
Las temperaturas a las que se había observado este fenómeno eran, hasta 1986,
menores a 24 K (249°C por debajo de la temperatura de congelación del agua), lo
cual representaba enormes dificultades tanto para observarlo como para utilizarlo en
aplicaciones prácticas a costos razonables, ya que la única manera de alcanzar tan
bajas temperaturas es mediante helio líquido, que exige una tecnología muy
sofisticada tanto para obtenerlo como para manejarlo.
Por otra parte, no deja de llamar la atención que los materiales que ahora se conocen
como "de alta temperatura de transición" son materiales cerámicos, los cuales
tradicionalmente se han venido utilizando como aislantes. Se están llevando a cabo
muchas investigaciones para explicar lo que está ocurriendo en estas cerámicas
superconductoras a alta temperatura. Ya se vislumbra que los mecanismos no son
idénticos a los que dan lugar a la superconductividad de baja temperatura.
31) Importante: Haga un resumen del capitulo I y III, de la Historia de las ideas
cientificas, del gran escritor Leonardo Moledo.
La ciencia antes de la ciencia
Se remonta a los inicios de la humanidad, con los homínidos y posteriormente los
homo sapiens. Hace referencia al origen de la ciencia, pero no como ciencia misma.
Aunque innegablemente nuestros antepasados realizaron experimentos y pruebas, las
mismas no tenían el fin de probar teorías, o explicar principios y causas, sino más
bien lo hacían para mejorar de manera practica el producto final, hablando ya sea de
técnicas o elementos “tecnológicos”.
A lo largo del tiempo se desarrollaron nuevas tecnologías que evolucionarían, tal
como paso con el control del fuego, considerándolo una revolución tecnológica de las
mas importantes.
Existe la posibilidad y se cree que los adelantos tecnológicos en el inicio de la
humanidad surgieron de manera accidental, mediante pruebas y errores o por el
impulso imaginativo de ver cómo se comportan ciertas sustancias. Sin embargo, es
evidente que existió siempre una capacidad de observación y aprendizaje basado en
la experiencia.
Revolución
Habla del descubrimiento de la agricultura, y la califica como la revolución tecnológica
más importante (o la segunda si se tiene en cuenta la del fuego). Dicho proceso se
extendió a lo largo de miles de años y conllevo al reemplazo en gran parte de la caza
y la recolección, provocando ek desarrollo de nuevas tecnologías (arados, canales,
etc) y el concepto de propiedad.
La agricultura implica la transición de una sociedad nómada a otra sedentaria. Es así
que la misma crea al poblado, el crecimiento de los poblados lleva a la ciudad, y la
ciudad a la intervención del Estado y a la distribución de la trabajo entre quienes
cultivan, quienes defienden y quienes distribuyen (o se apropian) el producto y los
excedentes (cuando los hay). Seguramente fue el comienzo de la “división del
trabajo”, lo que conlleva cada vez a una organización más compleja.
La revolución agrícola conduce a la construcción de grandes imperios como China y
diversos regímenes mesopotámicos.
Mesopotamia
Ubicada entre el Éufrates y el Tigres, fue un rejunte de pueblos que variaban
organizativamente, es decir que iban desde pequeñas ciudades a grandes imperios.
Lo cual generaba un estado de guerra permanente e incentivo de desarrollo de las
“artes adivinatorias”, con el fin de predecir invasiones entre otras cosas. Dichas artes
estaban basadas fundamentalmente en la observación del cielo, donde los astros eran
asimilados a dioses, entre otras actividades como el uso de amuletos.
En base a eso, los mesopotámicos reconocieron planetas visibles a simple vista como
distintos de las estrellas, nombraron constelaciones, lograron predecir eclipses, etc.
Sin embargo no solo fueron fundamentales en el desarrollo astrológico, también
tuvieron gran participación con la escritura y la matemática, desarrollaron el uso de
fracciones, tablas aritméticas para sumar, restar y dividir entre otras cosa. Las
civilizaciones babilónicas (baja Mesopotamia) desarrollaron un sistema de numeración
posicional de base sexagesimal, tablas de cuadrados, raíces cuadradas, cubos y
raíces cubicas, y además tendrían una excelente aproximación de π (relación entre el
diámetro y la longitud de una circunferencia), relacionado también con los cálculos y
observaciones que se hace sobre el cielo.
Egipto es un don del Nilo
En 3000 a.c Egipto se constituye como un Estado territorial y centralizado, es decir
que gobierna un cierto faraón, con límites y fronteras precisas, dentro de las cuales
valen las leyes egipcias.
En posesión de la escritura y técnicas de construcción avanzada, también observaban
el cielo y los astros, entro otras cosas para predecir las crecidas del Nilo, que una vez
por año inundaba la franja a sus cosechas y la prosperidad del país. Tambien
desarrollaron tablas aritméticas y de resolución de problemas algebraicos y
geométricos, ya que cuando el rio borraba las demarcaciones y límites entre parcelas,
era necesario restituirlas por medio de operaciones geométricas.
Al igual que para los mesopotámicos, sus conocimientos astronómicos estaban
completamente mezclados con la religión.
Cosmologías pre científicas y mitológicas
• Cosmología mitológica mesopotámica
Para ellos el universo estaba regido por un triunvirato Anu, Ea y Enul.
Anu: Dios padre, representaba el cielo.
Ea: Representaba la tierra y el agua.
Enil: Representaba al aire que separa la tierra y el agua del cielo.
Todos ellos descendían de un caos, producido por una mezcla de agua dulce y
salada.
Por otro lado, Marduk, otra entidad, comandaba la luna, y en él se basaba el
calendario. Todos los años se festejaba el Akitu (año nuevo) que reproducía la victoria
de Marduk sobre Tiamat (la serpiente) y sostenia los fundamentos del mundo.
Se cree que veían al mundo como un disco plano.
• Cosmología mitológica egipcia
Al igual que para los mesopotámicos, para los egipcios la tierra se encontraba dividida
en tres zonas delimitadas:
-La tierra de forma plana, dividida por el Nilo y rodeada de océanos.
-El cielo, que se encontraba sostenido por 4 soportes, que aparecían representados
como postes o montañas.
-El infierno, debajo de la tierra y llamado Duat. Creian que cuando el sol se escondía
viajaba por este viejo mundo.
Su origen también se remonta a una gran masa de agua pero que seguía presente, la
cual estaba personificada por el dios Nun. Nun le dio el nacimiento a Atum, dios
creador, y de él se desprendieron Shu, dios del aire, y Tefenut, diosa de la lluvia y la
humedad. Luego Shu levanto al cielo Nut y lo separo de la tierra, Geb.
• Cosmología mitológica griega
También la tierra se consideraba plana y rodeada de océanos, sobre ella había un
cielo separado por una brecha brillante durante el día y oscura por la noche. Debajo
estaba el Tártaro, el bajo mundo simétrico con el cielo, por donde rondaban las almas.
Existe un estado inicial de caos inicial, que no siempre estuvo ahí y que sin
explicación alguna. Origino primero al cielo, a la noche y a la oscuridad, luego al día y
al aire.
CAPITULO III
Ser o no ser.
Los milesios fundando la ciencia la desligaron de explicaciones mitológicas, pero
cayeron en el discurso de escuchar el discurso de las cosas, por que, ¿Cómo
podemos saber si escuchamos bien? y en la ausencia de la idea de experimentación
este problema era una grieta fatal.
En esta primera etapa no había una distinción entre ciencia y filosofía, y así los
milesios establecían como primer principio epistemológico separar los dioses de las
explicación y pensar a partir de observaciones, esto es lo que posteriormente fue
cuestionado en Elea.
En síntesis, no hay que escuchar el discurso de las cosas, sino por el contrario,
ignorar o al menos tomar ciertas precauciones antes de concederle un grado de
veracidad. El protagonista de esta postura se llamó Parménides de Elea.
Parménides conduce a la ciencia a un callejón sin salida.
Parmenides originario de la ciudad de Elea, pone a la filosofía y ciencia de cabeza.
Establece un principio muy simple y general” Antes de ponerse a estudiar la realidad hay
que demostrar que hay una realidad y averiguar cómo es y qué características tiene” y
sintetiza esto en la frase “Lo que es, es. Lo que no es, no es”. Parménides introduce la
teoría de lo que interesa no son los fenómenos, que son puramente ilusorios, sino aquello
que está detrás de los fenómenos, aquello que no cambia. La búsqueda de invariantes,
de las leyes de conservación, que es lo que nos muestra lo que no cambia.
Producto de este pensamiento, Parmenides percibe que su filosofía paralizaba
todo estudio o compresión de los fenómenos, por lo que intento resolver este problema
por medio del artilugio de incluir algunos opuestos en la esfera del ser, solución que no
fue muy convincente.
Aquiles y la tortuga. Zenón de Elea.
Zenón muestra lo incompresible del movimiento, que conduce a paradojas lógicas
que da la intranquilizadora sospecha de que los fenómenos sean inentendibles, no solo
porque los sentidos sean débiles, sino también, por que la razón también lo es y por lo
tanto ¿Por qué habremos de confiar en los resultados de la razón?
Meliso de Samos
Hace al ser infinito e ilimitado y ante el dilema de los fenómenos y su
incompatibilidad con el mundo racional niega la posibilidad de conocer los fenomenos y
resuelve el problema Melesio a costa de conducir a un inmovilismo total.
Todos contra el ser. Leucipo, Demócrito y el atomismo.
Para la resolución del problema del cambio aparecieron dos caminos diferentes;
los radicales del no ser (el no ser, no es e impide el cambio y el movimiento) y el segundo
de los caminos de los atomistas.
Si lo que imposibilita el movimiento es que el no ser no es, admitamos que hay no
ser para que haya movimiento. Hagamos que el no ser no sea. Es decir partamos del ser
inmóvil continuo y sin fisuras de Parmenides en bolitas de ser, que conservan los atributos
del ser Parmenídeo, al tiempo que admitimos que entre esas bolitas de ser hay un
espacio, un no ser, en el que se mueven. Así los atomistas lograron esquivar el problema
de la inmovilidad.
Demócrito suponía que la realidad de los átomos es solida y plena, y la llamo ser
que se mueve en el vacío, al que llamo no ser, diciendo que existe tanto como el ser.
Para ellos la existencia de estas bolitas de ser era ovia o sino ¿Cómo puede
explicarse, si no, que un cuchillo corte la manteca, si no hay intersticios por los cuales
penetra en ella?
La diferencia entre objetos físicos se explicaba en términos de modificaciones en
la forma, la distribución y posición de los átomos. A si mismo lo pesado y lo ligero de los
cuerpos esta determinado por las cantidades de átomos y vacíos que los forman. Si
predominan los primeros es pesados, sino, es leve.
La solución de Empédocles. Los cuatros elementos
Empédocles fragmento la sustancia originaria, propuso así, que no hay una sola
sustancia de la que surgen todas las demás, sino, que hay varias, cuatro en realidad
(agua, tierra, fuego y aire) lo cual une a los cuatro principios; lo seco lo húmedo, lo frio y lo
caliente. Mediante la combinación de esas cuatro sustancias se forman todas las demas
mediante las fuerzas de unión y rechazo.
Empédocles admite que los sentidos son débiles. No falsos, sino débiles, pero si
se utilizan inteligentemente los sentidos, pueden ser una buena herramienta. Además
para el la razón también es débil y plantea ¿Cómo podemos averiguar lo que es el
conocimiento verdadero, si fallan tanto los sentidos como la razón?
La consigna anterior no lleva a preguntarnos ¿Hay algún camino en el que la razón
se mueva a sus anchas, sin problemas?, si las matemáticas, una escuela que se venia
desarrollando en el sur de Italia.
Pitágoras y el camino de los números.
Pitágoras, mentor de un grupo de matemáticos que habían llegado al principio de que el
origen son los números. Antes de esto establecieron una semejanza formal entre los
números y las cosas, para luego dar el paso y decir que las cosas consisten en números.
Sin embargo la caída de su cosmovisión vino de la mano de su glorioso teorema
de Pitágoras, debido a que lograron demostrar que la hipotenusa de un triangula
rectángulo de catetos igual a uno, es decir raíz de dos, no es un numero o por lo menos
no lo es como lo concedieron ellos, ya que este no es un numero entero y no puede ser
expresado como una relación de números enteros, lo que significo un gran golpe a la
metafísica y la física Pitagorica.

32) IMPORTANTE: HAGA UN RESUMEN DEL CAPITULO 14, 15 y 19, DE LA


HISTORIA DE LAS IDEAS CIENTIFICAS DEL GRAN ESCRITOR LEONARDO
MOLEDO.

La derrota del círculo: Durante el Renacimiento el mundo orgánico perdió su


estructura simbólica, Copérnico, Digges y Bruno habían roto el espacio signado.
Copérnico, al igualar la Tierra al resto de los planetas; Digges, afirmando que había
infinitas estrellas a distancias disimiles. Giordano Bruno, al afirmar que nuestro mundo
no era único, sino que el universo debía contener infinitos mundos habitados por
seres inteligentes y sosteniendo que el Sol no era más que una estrella como todas
las demás.
Tycho Brahe mira el cielo y ve algo raro: Tycho Brahe llego a ser el astrónomo más
famoso de su época. En una ocasión cuando volvía a su casa después de una noche
de trabajo en el laboratorio de alquimia de su tío Steen Bille, donde había estrujado la
materia para arrancarle los átomos de fuego y producir oro. Al echar una mirada al
cielo descubrió que algo raro estaba pasando allí arriba: cerca de la constelación de
Casiopea había una estrella brillante, más brillante que el planeta Venus, donde antes
no había nada. Después de una serie de mediciones muy simples dejaron en claro
que no era efecto atmosférico, sino que, se trataba de un fenómeno que estaba
ocurriendo más allá de la Luna.
El gran observador: En 1571, falleció su padre, recibió una aceptable herencia y se
fue a vivir con un tío materno, Steen Bille, que había sido el primero en introducir en
Dinamarca la fabricación en gran escala de papel y las manufacturas de vidrio, y a
quien ayudaba en su laboratorio de alquimia. En esos menesteres cuando andaba
observó la supernova de 1572, la «nueva estrella». Para estar seguro de que se
trataba de una estrella nueva, Tycho registro su posición noche a noche (la supernova
fue visible durante dieciocho meses) e ir fijándose como variaba respecto del resto de
las estrellas. Por primera vez se observaba científicamente un cambio evidente en el
“mundo supralunar”.
La supernova de Tycho (y algunas más): Las supernovas son uno de los
fenómenos más impresionantes de la astronomía y probablemente de la naturaleza.
Desde nuestra modesta perspectiva, son fenómenos muy raros. En 1006 ya se
habían observado varias supernovas, aunque Tycho no fue el primero en observarla,
es recordada como la supernova de Tycho porque fue el quien pudo determinar su
carácter supralunar.
El examen del cielo: El estudio del cielo lo llevo a fabricar sus propios instrumentos
muy precisos y el acopido de una cantidad de increíbles de observaciones con
exactitud desconocida hasta entonces. Debido a su fama de astrónomo, el rey
Federico le regalo la pequeña isla de Hveen, entre Copenhague y Elsinore para que
construyera un centro científico, con un observatorio, una profusa biblioteca, una
imprenta y hasta una fábrica de papel. Fue allí donde empezó a poner en práctica a
su política de observación y seguimiento, que implicaba la observación de los astros
noche a noche.
El ocaso de las esferas: Fue en 1572 cuando Tycho observo la “estrella nueva,
cuyo estudio le permitió determinar que se encontraba más allá de la esfera de la
Luna, donde en principio nada podía modificarse, preparó el terreno para su siguiente
intervención en la teoría astronómica. Luego, tres años después de haber visto la
nueva estrella, Tycho observo un cometa. Los cometas eran muy conocidos
antiguamente, eran tomados como signos astrológicos de catástrofes, hambrunas,
pestes, guerras y augurios por el estilo.
Aristóteles los había estudiada y había llegado a la conclusión de que se trataba de
fenómenos atmosféricos por sus irregularidades. Pero Tycho, determino que el
cometa estaba más allá de la Luna, que se movía alrededor del Sol, y que además lo
hacía entre Martes y Venus, ósea que cruzaba las esferas que sostenía las orbitas de
ambos planetas.
El sistema de Tycho: Tycho nunca aceptó el sistema copernicano, la principal razón
por la cual no se adhirió a la teoría heliocéntrica es que le resultaba imposible aceptar
que la Tierra se moviera. Meticuloso como era, no sostuvo la inmovilidad de la Tierra
como un dogma, sino que, para demostrarla, ideó un experimento: disparó con un
cañón hacia el Este y el Oeste; con esto pudo mostraba que las dos balas llegaban a
la misma distancia. La experiencia del cañón y la falta de paralaje lo convencieron de
que la Tierra estaba inmóvil y lo llevaron a rechazar el sistema copernicano. Tycho se
equivocaba, pero no actuaba de manera irracional ni atado a dogmas. Y es hasta que
alguien resolviera el problema y explicara cómo podía ser que la Tierra se moviera y
no saliéramos todos (Tycho incluido) disparados por el aire, el sistema copernicano no
podría avanzar en forma decisiva hacia la teoría de la gravitación universal. A pesar
de esto en 1587 y 1588 publico una obra en dos volúmenes: Introducción a la nueva
astronomía, donde expuso su sistema: la Tierra está inmóvil en el centro del universo,
mientras la Luna, el Sol y las estrellas describen órbitas alrededor de rellenando el
espacio que se extiende hasta la esfera de las estrellas fijas, que para Tycho estaban
a una distancia equivalente a 14.000 veces el diámetro de la Tierra (unos 182
millones de kilómetros). Este sistema suprime la objeción de la falta de paralaje, ya
que la Tierra está inmóvil. El sistema fue relativamente aceptado, probablemente más
por quienes no querían comprometerse demasiado con el copernicano y preferían una
actitud astronómica tibia, o neutral (en particular los jesuitas).
Johannes Kepler: El interés de Kepler por la astronomía comenzó cuando era solo
un niño, en dos ocasiones diferentes, cuando vio un brillante cometa (el mismo que
Tycho estudio) y un eclipse de Luna. Estudio en la Universidad de Tubinga, donde el
catedrático Michael Maestlin, expuso el sistema de Copérnico, lo cual hizo que Kepler
se inclinara desde temprano hacia Copérnico. Llego a convertirse en uno de los
astrónomos copernicanos más combativos desde Rheticus. Más tarde, Kepler se
instaló en Graz donde sustituyo a un profesor de matemáticas. Cuando no disponía
de recursos económicos, confeccionaba horóscopos para poder ganar algo de dinero.
Kepler no creía en los horóscopos, pero los utilizaban como una necesidad.
El misterio del Universo: Kepler se dio cuenta de que del mismo modo que solo
existen poliedros regulares, solo existen seis planetas, y por lo tanto solo cinco
espacios entre ellos. La brillante idea que se le ocurrió a Kepler fue encajar estos
poliedros regulares imaginariamente, unos dentro de otros, de tal forma que en cada
caso los vértices de la figura interna tocaran la superficie de una esfera que rodeaba
el sólido, y que esta esfera, a su vez, tocara las caras internas de las superficies de la
siguiente figura que envolvía a esta esfera dentro del conjunto de figuras anidadas.
Con esto Kepler consiguió un espaciamiento entre las distintas esferas que
correspondía más o menos al espaciamiento entre las orbitas que describen los
planetas alrededor del sol.
Con el apoyo de Maestlin, Kepler desarrollo sus teorías en un libro llamado El misterio
del cosmos. Este libro pudo llegar a manos de Galileo, a quien le habría parecido un
libro puramente místico, muy distinto con lo que él trabajaba. Pero en cambio Tycho
estaba muy impresionado por las habilidades matemáticas del autor del libro. Fue
entonces que le planteo la posibilidad de trabajar juntos.
Kepler hereda el cielo de Tycho: Fue un 13 de octubre cuando Tycho cayó enfermo,
tras diez días al borde de la muerte. De repente, la mañana del 24 de octubre le
encomendó a Kepler la tarea de terminar las Tablas Rudolfinas y lo designo como
responsable de preservar el enorme tesoro de datos relativos a los planetas. Tycho
murió poco después de haber confiado el legado de la obra de su vida al asombrado
Kepler.
La órbita de Marte: contra el circulo: Kepler exploro la posibilidad de una órbita
descentrada, aunque estrictamente circular, de tal modo que Martes se encontraba en
una mitad de su órbita más cerca del Sol que en la otra mitad. De hecho, era
perfectamente aceptable que Marte se moviera con mayor velocidad en una parte de
su órbita que en otra: estaba levantando así la exigencia de movimiento uniforme, lo
que lo llevo a formular la ley de las áreas, que establece que el radio vector que une
un planeta y el Sol barre áreas iguales en tiempos iguales.
Utilizando los datos preciso de Tycho y mediante interminables cálculos, Kepler llego
a una conclusión. Encontró un par de observaciones que no encajaban con las
esferas de Copérnico. La diferencia era poca (ocho minutos de arco), error que
Copérnico hubiera aceptado. Pero Kepler no estaba dispuesto a ignorarlo, entonces
rechazo la teoría y decidió probar con orbitas no circulares, probo con un circulo
estirado (un ovalo) y cotejo dificultosamente las observaciones.
Más tarde, Kepler suponía que la verdadera forma estaba entre la oval y la circular,
algo intermedio, exactamente como si la órbita de Marte fuera una elipse perfecta.
Finalmente, después de un esfuerzo intelectual encontró una fórmula que
determinaba la distancia. Y entonces vio que la formula correspondía a una elipse.
En 1609 público su obra maestra, Astronomía nueva donde enuncia que los planetas
se mueven en torno del Sol siguiendo elipses y el Sol ocupa uno de los focos.
El anima motrix: En 1628, Kepler público un libro de astronomía copernicana,
donde mencionaba que hay una fuerza motriz, un anima motrix que emana del Sol y,
al girar este, actúa sobre los planetas, una fuerza de tipo magnético que barre los
planetas, lateralmente, y los empuja hacia el costado, evitando así la tendencia
natural de los cuerpos al reposo. Aquí Kepler interpretaba el movimiento como un
proceso transitorio que lleva inevitablemente al reposo: le faltaba la ley de inercia que
formularía Galileo unos años más tarde.
Esta era una fuerza ad hoc, muy diferente de todo y que además obligaba a justificar
porque las orbitas eran elípticas (cuando el ánima motrix imponía la circularidad). Pero
a Kepler no se le ocurrió otra cosa
CAPITULO 15- GALILEO

Podría decirse que así como la ciencia en general arranca con Tales de Mileto y su decisión de
no darles papel alguno a los dioses en la explicación de los fenómenos naturales, la ciencia
moderna empieza con Galileo Galilei y su decisión tajante de separar cualquier interferencia
teológica del estudio de la naturaleza.

Galileo, es plenamente moderno. Su teoría del conocimiento, su modo de experimentar, su


epistemología, su enfrentamiento con la tradición (que lo condujo a su tragedia con la Iglesia)
son la modernidad, constituyen plenamente aquello que hoy consideramos que es la ciencia.
Aunque la historia de la ciencia no es una competencia por ver quién es más moderno, una
historia de las ideas científicas tiene que mostrar esas tendencias. La ciencia autónoma, la
ciencia independiente de los dogmas y de la fe, la ciencia perfectible y siempre sujeta a
revisión, la ciencia provisoria y hasta la interpretación realista de los modelos científicos
surgen de Galileo. Es justo, por eso, que hablemos de él con cierto detalle.

VIDA DE GALILEO

Nació en Pisa el 15 de febrero de 1564, el mismo año que William Shakespeare, el mismo mes
en que murió Miguel Ángel, y a pocos años de que la Iglesia desatara, o intensificara, mejor
dicho, su ofensiva de la Contrarreforma. Su familia tenía buenos contactos y una posición
respetable dentro de la sociedad, pero siempre sería un problema para ellos encontrar el
dinero necesario para mantener el «estatus», y, de hecho, durante buena parte de su vida
Galileo tendría una y otra vez problemas económicos.

Hasta los 11 años, Galileo fue educado por su padre en su propio hogar, se convirtió en un
músico excelente por derecho propio, y durante toda su vida tocó (sobre todo el laúd)
únicamente por placer.
En 1581, a los 17 años de edad, Galileo se matriculó como estudiante de medicina en la
Universidad de Pisa; Pero afortunadamente, la medicina no era cosa para él: a principios de
1583, su vida tomó un nuevo rumbo, ya que entró en contacto con Ostilio Ricci, el matemático
de la Corte, que lo inclinó en forma permanente hacia las matemáticas.

Padua

Así y todo, la situación económica de Galileo llegó a ser acuciante en 1591, cuando falleció
Vincenzo, que lejos de dejar alguna herencia sustancial a sus hijos, sólo dejó deudas. Galileo,
que era el mayor de los hijos, quedó como jefe de familia y debió ponerse a buscar otro cargo
mejor remunerado. Por eso, le echó el ojo a la cátedra de matemáticas de la Universidad de
Padua. Además de ser un empleo más prestigioso, Padua formaba parte de la República de
Venecia, un Estado rico y lo suficientemente poderoso como para no estar sometido a la
tutela teológica y política de Roma.

Galileo se movió para conseguir el puesto, visitó la propia Corte veneciana, donde recibió el
apoyo del embajador de Toscana y de sus amigos poderosos y prominentes en la República y
al final consiguió el empleo, inicialmente por cuatro años y con un salario de 180 coronas al
año. Con el permiso del Gran Duque de Toscana, Galileo aceptó este nuevo empleo en
octubre de 1592, cuando tenía 28 años de edad. Era un nombramiento por cuatro años con
opción a dos más; es de suponer que ni el mismo Galileo imaginó que se iba a quedar en
Padua dieciocho años, y que allí iba a cimentar buena parte de su obra científica.

También fue en Padua donde contrajo (o se manifestó por primera vez) una enfermedad que
iba a afectarle durante el resto de su vida, una especie de artritis (aunque imagínense que los
diagnósticos de entonces no son muy de fiar) que le produjo repetidos ataques que lo
obligaban a guardar cama durante varias semanas seguidas. Lo cierto es que a los 40 años de
edad, Galileo se había hecho ya una más que aceptable reputación como experto en filosofía
natural y matemáticas, proporcionando beneficios prácticos al Estado veneciano, y llevaba
una vida plena y feliz en Padua.

El problema del movimiento

En Padua inició la línea de pensamiento e investigación sistemática que sería el centro de su


vida científica; allí llevó a cabo sus famosos experimentos con péndulos y también con esferas
que descendían rodando por planos inclinados. Y fue en Padua donde resolvió, de una vez por
todas, el problema del movimiento.

Planos inclinados y la ley de caída de los cuerpos

Fue en el período de Padua (y probablemente un poco antes, en Pisa) cuando Galileo empezó
a estudiar el fenómeno de la caída libre: al trabajar con esferas que ruedan sobre planos
inclinados, consiguió retardar la velocidad de caída, lo cual le permitió medir los tiempos y
minimizar el rozamiento, que ya visualizaba como una cualidad externa al fenómeno principal,
que lo perturbaba y le impedía mostrarse tal cual era, y que clasificaba como «minucia».

Lo cierto es que pronto se dio cuenta y asumió que, a pesar de las distintas velocidades, el
movimiento sobre el plano inclinado y el de caída libre eran del mismo tipo, relacionados de
una manera muy simple mediante el ángulo de inclinación del plano. Y además, llegó a una
conclusión fundamental: la velocidad de caída no sólo no depende del peso del cuerpo, sino
tampoco de la naturaleza del cuerpo, de su peso específico. Galileo la definía como un
aumento continuo de la velocidad.

El 16 de octubre de 1604, en una carta enviada a su amigo Paolo Sarpi, Galileo enunció por
primera vez la ley que siguen los cuerpos en caída libre, o sobre planos inclinados: El espacio
recorrido por un móvil es proporcional al cuadrado del tiempo empleado en recorrerlo.

También fue en esta época cuando entró en posesión de las leyes de isocronía del péndulo:
todas las oscilaciones, no importa su amplitud, toman el mismo tiempo, que sólo depende de
la longitud del péndulo y no de su peso.

Mediante sus experimentos, Galileo destruyó el mito de la imposibilidad de la composición de


movimientos y resolvió el problema de la trayectoria de la bala de cañón.

El principio de inercia

El estudio de los planos inclinados llevó a Galileo a una constatación que tendría las más
importantes consecuencia.

Traten de seguir el dibujo. Galileo constata que si una esfera rueda hacia abajo por un plano
inclinado — despreciando las «minucias», claro está, como el rozamiento—, y luego trepa por
otro, alcanzará exactamente la misma altura de la cual partió (dicho en términos modernos,
recuperará su energía potencial). Si se la hace trepar por planos inclinados cada vez menos
inclinados, el trayecto para alcanzar la altura original será cada vez más largo.

Galileo da un salto conceptual y lo hace de modo puramente mental: es evidente que cuando
la inclinación del plano se aproxime a cero, los trayectos se alargarán fuera de todo límite.
Límite, ésa es la palabrita: en el límite, si el plano por el que ha de subir la esfera no tuviera
ninguna inclinación, el trayecto se haría infinito y la esfera, sobre la cual no actúa ninguna
fuerza, se seguiría moviendo por siempre con velocidad rectilínea y uniforme.

El principio de relatividad

El mismo cuerpo (el barco) está en reposo para quien viaja en él y en movimiento para quien
lo mira desde la costa: el reposo y el movimiento uniforme son indistinguibles, porque un
móvil sólo se está moviendo en relación a un punto de referencia. Ésta es una idea que,
vagamente (o no tan vagamente, en realidad), había sido adelantada por Copérnico.

Hay que decir aquí que el principio de relatividad de Galileo, que se puede enunciar también
como que ningún experimento o señal mecánica puede distinguir entre el reposo y el
movimiento rectilíneo y uniforme, no se lleva bien con el sentido común, que se inclina por la
idea de movimiento absoluto.

Galileo funda la mecánica moderna antes de 1610, pero la exposición sistemática de sus
resultados tendrá que esperar hasta 1638, con la publicación de los Discorsi.

El telescopio

En julio de 1609, durante una visita a Venecia, Galileo había oído por primera vez rumores
sobre la existencia de un aparato que permitía ver objetos lejanos como si estuvieran cerca.
Efectivamente, Hans Lippershey, un fabricante de anteojos afincado en Holanda, había hecho
el descubrimiento por casualidad durante el otoño anterior, y en la primavera de 1609 se
vendían como juguetes en París unos telescopios cuya potencia amplificadora era de tres
aumentos. En realidad, tampoco Lippershey (que lo patentó) había sido del todo original, ya
que en Inglaterra Leonard Digges (1515-1559) había construido uno, perfeccionado por su hijo
Thomas Digges.

Oídos los rumores sobre este nuevo instrumento, Galileo se puso a trabajar para construir su
propio telescopio, sabiendo únicamente que el instrumento tenía dos lentes colocadas dentro
de un tubo. Era un artesano consumado (recordemos el termoscopio, el compás, el tratado
sobre fortificaciones) y, en apenas un día, lo cual es una flor de hazaña, construyó uno. Y que
encima era el doble de bueno (literalmente: tenía seis aumentos en lugar de tres) que
cualquiera de los que andaban por ahí.

En enero de 1610, Galileo empezó su exploración sistemática del cielo. Y lo que vio cambiaría
para siempre la ya maltrecha visión que se tenía del cosmos.

En marzo de 1610, publicó un pequeño libro (obviamente dedicado al gran duque Cosme II de
Médici… no perdía de vista la cátedra) titulado Siderius Nuncius (El mensajero de los astros),
que tuvo un éxito descomunal entre las personas cultas de todo el mundo, hasta el punto que
se tradujo al chino antes de los cinco años posteriores a su publicación. Y al final consiguió su
objetivo: en mayo de 1610, aceptó la oferta de ocupar la cátedra de matemáticas en la
Universidad de Pisa (la de Ricci), siendo nombrado filósofo y matemático vitalicio de la Corte
del Gran Duque de Toscana.

CAPÍTULO 19- Los éxitos de la ciencia experimental


La Revolución Científica no fue la obra de un puñado de grandes figuras, sino el resultado del
trabajo de cientos de matemáticos y filósofos naturales que estaban empeñados en construir
una nueva imagen del mundo y una nueva ciencia que lo describiera.

William Gilbert y el magnetismo

En el año 1600 se publicó De Magnete Magneticisque Corporibus, et de Magno Magnete


Tellure (Sobre el magnetismo, los cuerpos magnéticos y el gran imán que es la Tierra), De
Magnete para los amigos y para nosotros, del médico inglés William Gilbert, una obra que
estudiaba a fondo el fenómeno del magnetismo y que generó, por su método, el entusiasmo
de Galileo y, por sus ideas, ejerció una profunda influencia en Kepler, que, como les conté
cuando hablamos de él, imaginó fuerzas magnéticas entre los planetas que transformaban las
órbitas circulares en elípticas. Gilbert es considerado por algunos como el primer científico
moderno, clasificación un poco apresurada, pero digna de consideración.

Gilbert seguía muy de cerca a Petrus Peregrinus y probaba y confirmaba resultados


adelantados por él unos siglos antes, como la atracción y la repulsión de los polos magnéticos
y la bipolaridad permanente de un imán, independientemente de cuántas veces se lo divida.
Comprobó también que la acción magnética atravesaba láminas de madera y metal, mostró
que una aguja no aumentaba de peso al ser imantada y concluye que la imantación «es una
propiedad imponderable, una virtud» del imán, inscribiéndose en la línea renacentista:
recordemos que la misma palabra, «virtud», era utilizada para describir esa cosa
imponderable (por inexistente) que era el impetus, agente del movimiento.
Su investigación sobre la electricidad producida frotando con seda objetos hechos de
sustancias como el ámbar o el cristal fue menos completa que su estudio sobre el
magnetismo, pero determinó que la electricidad y el magnetismo eran fenómenos distintos, lo
cual no es poca cosa (de hecho, acuñó la palabra «eléctrico» en este contexto), aunque recién
más de un siglo después el físico francés Charles Du Fay (1698-1739) descubriría que existen
dos clases de carga eléctrica, que se comportan en cierto modo como polos magnéticos, por el
hecho de que las cargas del mismo tipo se repelen entre sí, mientras que las cargas opuestas
se atraen.

Sus investigaciones fueron tan minuciosas y precisas que no hubo ninguna novedad
importante en el terreno del magnetismo durante dos siglos, hasta los trabajos de Michael
Faraday, lo cual lo convierte no sólo en un gran científico sino también en un ineludible
precursor.

La Royal Society y las primeras academias

En estos siglos que estamos revisando, y que constituyen el punto de inicio de la ciencia tal
como la conocemos hoy, fue central un nuevo modelo de institución que permitía agrupar
personas que tenían mucha curiosidad y el deseo de investigar la naturaleza de las cosas. La
primera fue la Accademia dei Lincei (Academia de los Linces) de Roma, cuyo nombre se inspiró
en la aguda mirada de ese felino. Fue fundada en 1603 por cuatro jóvenes. Uno de ellos,
Federico Cesi, de 18 años (1585- 1630), era el hijo del Duque de Acquasparta. Entre los otros
tres, apenas mayores que Cesi, había un médico holandés.

. En 1604, el miembro holandés fue expulsado de Roma por ocultismo y el grupo se


desmembró, aunque la correspondencia continuó y por este medio también siguieron con el
programa que se habían propuesto. Hacia 1610, la academia se había recuperado y estaba en
lento crecimiento. En 1611 se sumó Galileo Galilei, lo que estimuló aún más su importancia.
En 1625, el número de miembros había llegado a 32. Durante los encuentros se discutían
cuestiones científicas, administrativas, y se decidía sobre eventuales publicaciones, entre las
que estuvieron las obras galileanas Storia e dimostrazioni intorno alle macchie solari (1613) e
Il Saggiatore (1623).

A pesar de estos éxitos, cuando murió Cesi, en 1630, la academia se diluyó una vez más. Su
posición se venía debilitando desde 1616, cuando apoyó el copernicanismo de Galileo. A pesar
de todo, la tradición sobrevivió por un tiempo en la Accademia del Cimento (del experimento)
en Florencia, de inspiración galileana, y que tuvo el patrocinio y sostén de los Medici

La Royal Society adoptó oficialmente el ideario baconiano, tanto en la idea clave de la ciencia
como capaz de modificar la naturaleza, como en la base inductivista de la metodología
científica (a diferencia de la Académie francesa, que fue obviamente cartesiana) y la práctica
del experimento y la experiencia como fundamental criterio de verdad. Incluso muchos
creyeron ver en la Royal Society una materialización del ideal baconiano de la Nueva
Atlántida, con la academia como la Casa de la Sabiduría: así, incluso, se la describe en la
Historia de la Royal Society de Thomas Spratt (1667).

Era un disparate, sin duda, pero es posible que este baconianismo exagerado también tuviera
sentido político, y que el culto a Bacon, ministro de Carlos I, el ejecutado padre del entonces
rey, encubriera espurios intereses monetarios: a diferencia de la Casa de la Sabiduría, la Royal
Society era una institución privada, que necesitaba autofinanciarse, y así puede ser que el
culto baconiano fuera sólo una fachada; al fin y al cabo, los miembros más conspicuos de la
Sociedad, y científicos de primer orden como Boyle o el enorme Robert Hooke, si bien no
dejaban de ser empiristas, eran plenamente conscientes de que necesitaban una buena dosis
de filosofía mecánica

El triunfo del vacío

La existencia o no del vacío, o su mera posibilidad lógica, había atravesado los siglos. Como les
conté al principio, el increíble Aristóteles rechazaba el vacío por cuestiones filosóficas y
lógicas: puesto que el medio es el encargado de retrasar el movimiento, el vacío permitiría
una velocidad infinita, lo cual conduciría a aceptar que un móvil pudiera estar en dos lugares
simultáneamente. La escuela atomista, por su parte, había postulado el vacío, donde se
movían libremente los átomos, para sacar a la ciencia del callejón sin salida en el que la había
metido Parménides, con su Ser inmóvil que lo llenaba todo uniformemente y no permitía
pensar en nada que no fuera él. La postulación de la existencia del vacío por parte de los
atomistas constituía, para Aristóteles, razón suficiente para rechazar de plano su teoría.

El experimento clásico para demostrar el horror al vacío de la naturaleza era el que se


observaba con las bombas de succión, tubos en los que se genera el vacío en la parte de arriba
y por los cuales el agua sube desde un pozo: al hacerse el vacío en el caño de la bomba, el
agua se precipitaba a llenarlo. El problema era que la naturaleza parecía tenerle horror al
vacío pero no tanto: si el caño de succión era suficientemente largo, a los 10 metros,
aproximadamente, el agua dejaba de ascender y allí se quedaba, sin precipitarse para nada a
llenar la parte superior del caño. Los poceros lo sabían muy bien.

Finalmente, el 11 de junio de 1644, dos años después de la muerte de Galileo, Torricelli


comunicó que, efectivamente, no sólo había vacío en la parte superior del tubo, sino que,
además, éste se debía a la presión del aire exterior.

Pascal diseñó un experimento vistoso para refutar a los escolásticos: hizo llenar un tubo de
agua y otro de vino (tinto), preguntando a los asistentes cuál creían que iba a alcanzar mayor
altura. La respuesta general fue que sería el agua, ya que el vino, más volátil, dejaría emanar
más vapores. Sucedió lo contrario: el vino se elevó unos cuantos centímetros por encima del
agua. Luego de esto, Pascal realizó los famosos experimentos del monte Puy de Dome para
refutar las tesis cartesianas, que él veía como un nuevo aristotelismo (y en cierto modo tenía
razón). Midió allí la columna de mercurio a diferentes alturas sobre el nivel del mar, y pudo
comprobar que cuanto más se ascendía, más bajaba la columna: la idea de presión
atmosférica estaba en marcha (de hecho, Pascal había inventado el barómetro).

El triunfo del vacío tiene una doble significación: por empezar, mostró cómo un experimento
en la línea inductiva podía destronar una teoría derivada de una concepción y sistema
metafísico, tanto en el caso de Aristóteles como en el de Descartes, que había durado siglos.
Por el otro, fortalecía la teoría del espacio absoluto y previo, y la de los atomistas, que Newton
también adoptó y que permitiría el compromiso de 1687. El vacío había triunfado. Pero
tendría, siglos más tarde, nuevos, divertidos y vistosos avatares.

33) Importante: Haga un resumen del capítulo 40 de Historia de las ideas científicas
del gran escritor argentino Leonardo Moledo.
El modelo estándar de partículas es, más que un modelo, una teoría que identifica a todas
las partículas materiales que componen el universo y explica los modos en que
interaccionan. De acuerdo a éste, las partículas verdaderamente elementales (en el
sentido de que no pueden ser divididas ulteriormente) son:
• Los quarks, que forman a su vez otras partículas como los mesones, los bariones y los
hadrones. Dentro de los últimos (formados por tres quarks) se encuentran dos de
nuestros viejos conocidos: los protones y los neutrones. Hay, en total, seis quarks.
• Los leptones, que no están formados por quarks: electrón, muón, partícula tau y tres
tipos de neutrino.
Al mismo tiempo, hay cuatro fuerzas (la electromagnética, la gravitatoria, la nuclear fuerte
y la nuclear débil) que actúan por mediación de otras partículas que las transportan. Esto
es complicado de entender, pero simplificando un poco podemos decir, a modo de
ejemplo, que en el caso de la fuerza electromagnética el fotón es la partícula encargada
de interaccionar con la materia para transmitirla: dos cargas que se atraen o rechazan
intercambian fotones y la fuerza será más o menos intensa de acuerdo a la interacción de
las partículas. Cuando dos partículas cargadas se atraen, intercambian fotones, del
mismo modo que dos personas que intercambiaran una pelotita de golf parecerían unidas.
A las partículas fundamentales que vimos al principio (los quarks —con sus múltiples
variaciones— y los leptones) tenemos que sumarles, entonces, otras partículas:
Fotón: transporta la fuerza electromagnética
Partículas W y Z: transportan la fuerza débil
Gluones: Transportan la fuerza fuerte
Y podríamos incluir al gravitón, que transportaría la fuerza gravitatoria, pero aún no fue
detectado. Por supuesto, cada una de ellas cuenta con su respectiva antipartícula.
Parece demasiado, ¿no? Y encima, hay un problema fundamental: el modelo no cierra.
Por empezar, no incluye a la gravitación y a las interacciones gravitatorias, que se
resisten a someterse a los rigores de la mecánica cuántica; por otro lado, no explica de
dónde sacan las partículas su masa, por qué el electrón es casi dos mil veces menos
masivo que el protón o el fotón carece completamente de masa.
Para resolver este inconveniente (un inconveniente un poco más puntual, en realidad,
pero no importa), en 1964 el físico británico Peter Higgs sugirió que el universo entero
está inmerso en un campo (el campo, precisamente, de Higgs), que es el que confiere
masa a las partículas. La partícula cuántica que lo representa, aquella que interacciona
con el resto de las partículas, es ni más ni menos que el bosón de Higgs.
El Modelo Estándar propone entonces, además de las partículas y de las fuerzas, la
existencia de un campo que se encarga de darle a cada partícula su masa de acuerdo a
cómo interaccione con él. A simple vista parece difícil de entender, pero no lo es tanto.
Piénsenlo así: si la masa es la medida de cuán difícil resulta acelerar un objeto (es decir,
de cuán difícil le resulta moverse), que A tenga el doble de masa que B quiere decir que
hay que hacer el doble de fuerza para acelerar a A que para acelerar a Imagínense que
entran un vendedor de diarios y un vendedor de helados a un salón lleno de niños. Es
evidente que el vendedor de diarios pasará sin pena ni gloria, interaccionando
mínimamente con los chicos. En cambio, el vendedor de helados tendrá enormes
dificultades para abrirse paso entre la multitud. Si aceptamos la idea de que la masa es la
resistencia que ofrece un cuerpo al movimiento, se puede pensar que el heladero es más
masivo que el vendedor de diarios (por más que pesen exactamente lo mismo).En el
campo de la física de partículas, el salón funcionaría como el campo de Higgs y cada uno
de los niños como el bosón, la partícula que tiene asociada. Es como si el campo de
Higgs fuera una especie de viscosidad que impregna el espacio-tiempo y que «frena “con
diferente intensidad a las partículas elementales, otorgándoles un efecto equivalente a lo
que nosotros medimos como masa. Si nosotros observáramos el fenómeno desde afuera,
diríamos que el heladero (protón)es más masivo que el canillita (electrón) simplemente
porque interacciona de manera más intensa con los niños (bosones de Higgs) en el salón
(campo de Higgs).
De allí la importancia fundamental para la física actual del bosón de Higgs: si se lo
encontrara, podría «cerrar» el Modelo Estándar (que lista la totalidad de las partículas
elementales que existen, exceptuando a las relacionadas con la gravitación) y, si no,
obligaría a replantear varios de sus postulados.
Esta importancia capital es la razón por la cual se estudia con tanto énfasis el elusivo
bosón en el Gran Colisionador de Hadrones del CERN (Centre National pour la
Recherche Scientifique), el mayor experimento científico de la historia de la humanidad,
no sólo por el tamaño y la inversión requerida sino por las ambiciones: cerrar de manera
«definitiva» (y lo pongo entre comillas porque, como ya sabemos, nada en la ciencia es
definitivo) el modelo estándar de partículas, que explica en detalle cómo está constituido
el universo. Lo que se realiza allí es «sencillo»: se hacen colisionar haces de protones a
una velocidad cercana a la de la luz produciendo a escalas subatómicas energías
altísimas, imposibles de obtener de otra manera. Para lograr que partículas diminutas
como son los protones colisionen a esas velocidades fue necesario diseñar un túnel de 27
kilómetros de circunferencia, en cuya construcción trabajaron más de 2.000 físicos de 34
países y que costó, para ponerlo en funcionamiento, la friolera de 40 mil millones de euros
(además de los 765 millones que necesita para funcionar cada año).Pero la inversión,
aparentemente, vale la pena: además de haber proporcionado (y seguir
proporcionando)información relevante sobre el hipotético y escurridizo bosón de Higgs, se
espera que el supercolisionador ayude a entender, al recrear las condiciones que tenía el
universo menos de una milmillonésima de segundo después del Big Bang, qué es esa
«cosa» que llamamos «masa», que esclarezca al menos en parte qué es la materia
oscura y que proporcione alguna evidencia empírica a la por ahora puramente teórica
teoría de cuerdas.
El elusivo bosón
La verdad es que el bosón se hizo esperar, y no era para menos: según los cálculos, la
masa del Higgs tenía que ser por lo menos unas 120 veces la del protón y, por lo tanto,
hacía falta muchísima energía para crearlo y, después, poder observarlo. Porque de
acuerdo a lo que planteaba la teoría, el bosón de Higgs se tenía que desintegrar en otras
partículas antes de recorrer siquiera una distancia equivalente al diámetro de un protón.
Para probar que existía (o que no) se buscaban, precisamente, los productos de esa
desintegración. El tema es que dado el carácter cuántico de estos fenómenos, la mayoría
de los productos eran generados por otros mecanismos más convencionales, y es por eso
que para minimizar los márgenes de error resultaba necesario recolectar y analizar una
enorme cantidad de datos que dieran certera cuenta de la dichosa y escurridiza partícula:
pescar el bosón era como escuchar un susurro en medio de un multitudinario festival de
rock desde diez kilómetros de distancia. Distinguirlo, separándolo del ruido de fondo, no
es por cierto fácil, y sería aconsejable que el avisado lector no trate de hacerlo en su casa
como pasatiempo del domingo. Y así y todo, los datos acumulados desde que comenzó el
experimento permitieron ir poniendo poco a poco límites más estrictos a la posible masa
del posible bosón de Higgs. Según el equipo de 3.000 físicos conocido como
Colaboración Atlas, debía estar en 125 billones de electronvoltios (un electronvolt es la
unidad de energía que representa la energía cinética que adquiere un electrón cuando es
acelerado por una diferencia de potencial de 1 voltio), es decir, 125 veces más que la de
un protón y 500 mil veces la de un electrón. Y efectivamente el 4 de julio de 2012 se hizo
un anuncio: en el CMS y el Atlas (dos de los detectores de partículas presentes en el
Supercolisionador) había aparecido una masa «consistente con la masa del bosón”. La
cuestión no está cerrada y aún se sigue investigando si esa partícula es efectivamente el
bosón de Higgs o alguna otra partícula no predicha por la teoría. Sea como fuere, el solo
hecho de que haya aparecido una «masa consistente» con la predicción resulta
impresionante.
Como Neptuno gracias a los cálculos de Le Verrier, como los elementos que vinieron a
completar de a poco la tabla periódica de Mendeleiev, el bosón parece irrumpir con toda
su vacilante empiria en el mundo de las partículas elementales para darle la razón a una
predicción teórica formulada por Peter Higgs hace medio siglo y demostrar, una vez más,
el alcance de la mayor herramienta que tiene el ser humano, la que desde Tales de Mileto
hasta el Supercolisionador de hadrones hizo posible el desarrollo de esta historia.

34) Importante: Detalle los enlaces primarios interatómicos y de ejemplos:


enlaces iónico, covalente, y metálico.
Enlace iónico: Este enlace se produce cuando átomos de elementos metálicos se
encuentran con átomos no metálicos. En este caso los átomos del metal ceden
electrones a los átomos del no metal, transformándose en iones positivos y negativos,
respectivamente. Al formarse iones de carga opuesta éstos se atraen por fuerzas
eléctricas intensas, quedando fuertemente unidos y dando lugar a un compuesto
iónico. Estas fuerzas eléctricas las llamamos enlaces iónicos.
Ejemplo:
Considérense los átomos de sodio y cloro para explicar lo que acontece. El sodio
tiene un electrón de valencia si lo pierde queda con ocho electrones, un octeto, en la
siguiente capa. Sin embargo, si ello sucede, el número total de protones (11) será
mayor que el de electrones (10). En consecuencia, el sodio se convierte en un catión
o ion con carga positiva. El ion sodio tiene carga de 1+ y su símbolo es Na+. Por otra
parte, el cloro posee siete electrones de valencia; si gana un electrón de un átomo
vecino completará un octeto en su tercera capa electrónica. En tal caso, el número
total de electrones (18) será mayor que el de protones (17) y el cloro se convertirá en
un anión o ion con carga negativa; dicha carga será de 1- y su símbolo Cl-. Si un
átomo de sodio dona su único electrón de valencia a un átomo de cloro, las cargas
positiva y negativa resultantes harán que los iones se mantengan estrechamente
unidos mediante el enlace jónico. El compuesto que se forma de esta manera es el
cloruro de sodio, NaCl (sal común). Por lo regular, los compuestos iónicos son sólidos,
con una disposición ordenada y repetida de los iones, como en los cristales de NaCl.
Enlace covalente: Un enlace covalente entre dos átomos o grupos de átomos se
produce cuando estos átomos se unen, para alcanzar el octeto estable, comparten
electrones del último nivel. La diferencia de electronegatividades entre los átomos no
es lo suficientemente grande como para que se produzca una unión de tipo iónica, en
cambio, solo es posible la compartición de electrones con el fin de alcanzar la mayor
estabilidad posible; para que un enlace covalente se genere es necesario que el delta
de electronegatividad sea menor a 1,7.
Los enlaces covalentes son las fuerzas que mantienen unidos entre sí los átomos no
metálicos. El par de electrones compartido es común a los dos átomos y los mantiene
unidos, de manera que ambos adquieren la estructura electrónica de gas noble. Se
forman así habitualmente moléculas: pequeños grupos de átomos unidos entre sí por
enlaces covalentes.
Mientras más pares de electrones se compartan, mayor será la energía del enlace
covalente. Se dice que los electrones que forman cada par son compartidos porque
ambos permanecen la mayor parte del tiempo en la región que se encuentra entre los
núcleos de los dos átomos. A diferencia de los enlaces iónicos, los covalentes pueden
formarse entre dos átomos de la misma clase, lo mismo que entre elementos distintos.
Cuando dos átomos comparten un solo par de electrones, se dice que los une un
enlace covalente sencillo, mientras que cuando comparten dos o tres se los
denomina: enlaces covalentes dobles o triples, respectivamente.
En algunos enlaces covalentes, los dos átomos comparten por igual los electrones,
pues ninguno de ellos atrae con más fuerza a estos últimos. Este tipo de unión se
llama enlace covalente no polar. Así, la unión entre dos átomos iguales siempre es no
polar. En los enlaces covalentes polares, los átomos no comparten sus electrones de
manera equitativa, ya que uno los atrae con mayor fuerza que el otro. Al establecerse
uno de estos enlaces, la molécula formada tiene carga parcial negativa en el lado
donde se encuentra el átomo con mayor poder de atracción y se dice que éste posee
mayor electronegatividad; en tal caso, al menos otro átomo tendrá una carga parcial
positiva.
Ejemplo:
 Enlace simple: molécula de hidrógeno (H2).
 Enlace doble: molécula de oxígeno (O2).
 Enlaces triples: molécula del nitrógeno (N2).
 Enlace no polar: metano (CH4).
 Enlace polar: molécula de agua (H2O).

Enlace metálico: Un enlace metálico es un enlace químico que mantiene unidos los
átomos de los metales entre sí. Estos átomos se agrupan de forma muy cercana unos
a otros, lo que produce estructuras muy compactas. Se trata de líneas
tridimensionales que adquieren estructuras tales como: la típica de empaquetamiento
compacto de esferas (hexagonal compacta), cúbica centrada en las caras o la cúbica
centrada en el cuerpo.
En este tipo de estructura cada átomo metálico está dividido por otros doce átomos
(seis en el mismo plano, tres por encima y tres por debajo). Además, debido a la baja
electronegatividad que poseen los metales, los electrones de valencia son extraídos
de sus orbitales. Este enlace sólo puede estar en sustancias en estado sólido.
Es un enlace fuerte que se forma entre elementos de la misma especie. Al estar los
átomos tan cercanos unos de otros, interaccionan sus núcleos junto con sus nubes
electrónicas, empaquetándose en las tres dimensiones, por lo que quedan los núcleos
rodeados de tales nubes. Estos electrones libres son los responsables de que los
metales presenten una elevada conductividad eléctrica y térmica, ya que estos se
pueden mover con facilidad si se ponen en contacto con una fuente eléctrica. Los
elementos con un enlace metálico están compartiendo un gran número de electrones
de valencia, formando un mar de electrones rodeando un enrejado gigante de
cationes.
El enlace metálico explica muchas características físicas de metales, tales como
maleabilidad, ductilidad, buenos en la conducción de calor y electricidad, y con brillo o
lustre (devuelven la mayor parte de la energía lumínica que reciben).
Los átomos del metal tienen por lo menos un electrón de valencia, no comparten
estos electrones con los átomos vecinos, ni pierden electrones para formar los iones.
En lugar los niveles de energía externos de los átomos del metal se traslapan. Son
como enlaces covalentes identificados.
35) Importante: Detalle los enlaces secundarios interatómicos: enlaces Van Der
Waals y enlaces de hidrógeno.

ENLACE DE VAN DER WAALS


El enlace van der waals, conocido también como fuerzas intermoleculares o fuerzas
de dispersión, se observa principalmente en los polímeros y en algunos materiales de
carácter no metálico (por ejemplo las arcillas). Se trata de enlaces débiles de carácter
electrostático.
En los enlaces ionicos o covalentes, siempre existe algún desequilibrio en la carga
eléctrica en la molécula (ej. Agua.. positivo en el H+ y negativo en el O-2). Este mismo
fenómeno se observa en el polietileno donde se manifiesta en los átomos de C e H. el
efecto es particularmente importante en moléculas complejas donde existen diferentes
elementos (polímeros: C, H, O, N, F, Cl, S y otros).
En los polímeros, se pueden distinguir dos tipos de materiales: termoplaticos y
termoestables. Los primeros esta constituidos por cadenas medianamente libres, pero
unidas a través de los enlaces de van der waals (funden y deforman), y los
termoestables que forman redes tridimensionales (rigidos y estables).

Algunas caracteristicas Fisicas:


 Conducción Eléctrica: Escasa o nula, ya que prevalece el enlace original
(covalente).
 Ductilidad: Si, en el caso de los termoplásticos, facilitado precisamente por las
fuerzas de van der waals.
Tipo de enlace secundario. Es mucho mas debil que los tres enlaces primarios
principales (ionico, covalente y metalico)
ENLACES DE HIDROGENO
Un enlace común es el enlace de hidrogeno. Son los mas comunes en las moléculas
con enlace covalente que contengan hidrogeno. Los enlaces de hidrogeno se
producen entre atomos covalentes y oxigenados. Esto lleva a cargas electicas muy
pequeñas alrededor del encale de hidrogeno, y cargas negativas alrededor de los
encales oxigenados.

 Es un caso especial de enlace entre moleculaspolares.


 Es el tipo de enlace secundario mas fuerte.
 Densidad: Depende de peso atomico radio atomico (ionico) y distribución
atómica espacial.
 Conductuvidades, eléctrica y térmica: Estan asociadas a la movilidad de los
portadores de carga, que a la vez depende de la distribución electrónica
espacial.

http://andresitcj.blogspot.com/2009/02/introduccion-los-atomos-se-mantienen.html
https://es.slideshare.net/karenalfonseca/enlaces-atomicos-primarios-y-secundarios

36) DESARROLLE SU OPINIÓN DE POR QUE SI HARÍA UNA VIVIENDA CON


CERRAMIENTO Y ESTRUCTURA DE MADERA, INVESTIGUE Y DESARROLLE SU
RETÓRICA.

Siempre y cuando se fabrique cumpliendo con las normativas regentes y


considerando la zona donde va a permanecer las ventajas son muchas, desde el
punto de vista económico y temporal, además de estético (por las texturas y la
facilidad de decoración con pinturas y/o empapelados).

SI llevaría a cabo la construcción de una vivienda con madera debido a que:

1. Como material de construcción la madera es versátil, hay tantas especies de


madera como aplicaciones y necesidades constructivas.

2. Existe una gama de precios amplia por lo que es adaptable a todos los
presupuestos.

3. Es ligera: la relación resistencia/peso es 1,3 veces superior a la del acero y


10 veces a la del hormigón.

4. Frente al fuego se carboniza primero su capa más externa lo cual protege al


resto de deformaciones y el colapso incluso mejor que el acero y el hormigón. Este
comportamiento mejora más aún con la aplicación de un tratamiento ignífugo.

5. Es durable y si recibe el tratamiento profesional apropiado puede ser inmune


a insectos y humedades.
6. Su capacidad aislante es una de las mayores que encontramos en la
naturaleza: teniendo el mismo grosor el aislamiento térmico de la madera es 4 veces
superior al del ladrillo.

7. La madera se recomienda para aulas, auditorios y salas de reunión pues


hay menos ruidos y ecos, y menos aún si se utiliza un aislante, preferiblemente
ecológico.

8. En obra, la madera es de fácil manejo y de montaje rápido por lo que el


tiempo de ejecución es menor si se compara con otros materiales de construcción.

9. Se puede realizar ampliaciones y modificaciones en la vivienda sin la


necesidad de demoliciones

10. La madera es un material renovable, a diferencia de sus competidores,


acero, hormigón, ladrillos, los que además requieren mayor energía para su obtención
y refinamiento y son altamente contaminantes en dicho proceso.

11. El comportamiento sísmico de una vivienda en madera es superior al de


una en albañilería u hormigón, ya que la primera es 6 a 9 veces más liviana. El peso
específico de una construcción de concreto es de 1.8 ton/m3, mientras que en los
sistemas modernos de construcción en madera es 0.3 ton/m3. Esto es uno de los
factores importantes que convierte a la vivienda estructurada en madera en una
construcción antisísmica.

37) Vea y estudie el video de Michio Kaku sobre el Universo en resumen,


haga un resumen del mismo y conteste las teorías de Aristóteles, Newton, y
Einstein. Conteste sobre las cuatro fuerzas fundamentales, y la teoría de los
multiversos.
El video “El universo en resumen” de Michio Kaku hace un resumen de la evolución
del campo de la física y sus correspondientes teorías, muestra como gradualmente los
descubrimientos se corresponden con cambios sociales, económicos y tecnológicos.
Toma como un punto de partida a Aristóteles, filósofo, lógico y científico de la
Antigua Grecia, el cual se cuestionaba acerca de los fenómenos del universo, tales
como el comportamiento físico de los cuerpos. Respondió a preguntas como el porqué
de que los cuerpos se muevan hacia la tierra y el porqué de que los objetos de
desaceleren al ponerlos en movimiento, diciendo que los cuerpos anhelan estar
unidos con la tierra y que los objetos se cansan, respuestas que serían vigentes casi
2000 años.
Luego se habla de Isaac Newton, y conjuntamente del salto a la física moderna. El
mismo desarrollo leyes de movimiento (que reemplazarían a las respuestas de
Aristóteles) y el cálculo de trayectorias de objetos que se mueven en un campo de
fuerzas de cuadrado inverso, inspirado por el fenómeno de la gravedad y su efecto
sobre, cuerpos tales como una manzana, la luna o el cometa Halley (ecuaciones
vigentes hasta hoy). Sus descubrimientos implicaron el paso del feudalismo a la edad
moderna, a partir de las revoluciones industriales.
El conocimiento de la fuerza electromagnética, originada por la interacción de
campos magnéticos y el movimiento de fluctuación (o viceversa), llego con los
hallazgos de Faraday y la materialización de sus trabajos por Maxwell. Dicho manejo
de los campos magnéticos y eléctricos llevo al conocimiento de la velocidad de la luz,
a la posibilidad de almacenar y distribuir energía, y a herramientas tan actuales como
el internet.
Einstein y otros ayudaron a develar las fuerzas restantes: la nuclear débil, que
gobierna el decaimiento radioactivo, y la nuclear fuerte, de gran intensidad que
mantiene unidos a los protones. La ecuación que permite la liberación de energía es
la famosa ecuación del ya nombrado Einstein: e=mc^2 donde e :energía, m=masa y c:
velocidad de la luz en el vacío, con lo que demostró que mientras más rápido se
mueve un cuerpo, más pesado se vuelve.
A partir de todos estos conceptos, junto con los descubrimientos y teorías de las
subparticulas, se llaga a la teoría de cuerdas, que daría lugar a la del multiverso,
teorías que tratan de resumir el universo. Se cree que el mismo se puede considerar
como una burbuja en expansión de la cual no podemos salir, y además que existen
muchos universos. Estas teorías explican que el big bang se podría haber tratado de
la colisión o separación de dos universos. Sin embargo los físicos aun no lo pueden
confirmar, por lo que continúan los aportes y las investigaciones en la actualidad.

38) ¿Qué son los agujeros negros?

Fuente:  “El universo que somos”, S. J. Abarca, versión digital 1.1

39) ¿Cómo son tipo de finales de los diversos tipos de soles?


Durante su vida adulta, las estrellas producen luz y calor mediante procesos de fusión
termonuclear que ocurren en su interior. Es tan grande la masa de una estrella y tan
eficiente el proceso nuclear, que la producción de energía puede ser mantenida por
muchísimo tiempo. En el caso del Sol, nos quedan todavía alrededor de 4 500 millones de
años antes de que el marcador llegue a cero. Pero en otras partes del Universo podemos
observar estrellas que se formaron antes que el Sol y que se encuentran sufriendo ya las
convulsiones de la muerte estelar.
Pero no es el mismo tipo de muerte el que espera a todas las estrellas. Su destino lo
determinará que sean ligeras o pesadas. Son ligeras las estrellas cuya masa es menor a
seis veces la del Sol; es decir, que nuestro Sol está dentro de la categoría de las estrellas
ligeras.
Las estrellas ligeras, después de una larga etapa de madurez en la secuencia principal,
aumentan su tamaño hasta alcanzar un diámetro cientos de veces mayor al que tenían
durante su vida estable. Cuando una estrella está en esta etapa se le llama,
apropiadamente, una gigante roja. Los astrónomos han catalogado y estudiado a un gran
número de estas estrellas. Cuando el Sol crezca hasta convertirse en una gigante roja,
englobará a la Tierra, quemando y destruyendo a la vida que entonces pueda haber.
Después de este periodo como gigante roja, comenzará el Sol a sufrir una etapa de
encogimiento volviendo a pasar por el diámetro que ahora tiene y seguirá reduciéndose
hasta alcanzar un diámetro similar al de la Tierra. A las estrellas en esta etapa terminal se
les conoce como enanas blancas y, de nuevo, son muchísimas las que se conocen y
estudian con gran detalle. Agotado su combustible nuclear, la estrella comienza un lento
pero inexorable proceso de enfriamiento. Igualmente, su luz se va extinguiendo poco a
poco. Así, a la Tierra le espera primero la calcinación y luego el congelamiento.
A las estrellas con masa mayor a seis veces la del Sol, que hemos llamado pesadas, les
espera un destino aún más espectacular y cataclismo. Una vez agotado el combustible
nuclear, la estrella se encuentra repentinamente sin presión interna que detenga a la
atracción gravitacional. La estrella se colapsa rápida y violentamente. Esto crea en su
interior presiones elevadísimas, fusionando a los protones y electrones para crear
neutrones y liberando energía en gran cantidad. Las capas exteriores de la estrella
absorben esta energía y salen disparadas hacia afuera, mientras el núcleo continúa su
colapso (véase la Fig. 11). Las capas exteriores se expanden a grandes velocidades
formando bellas nebulosidades que son testigos mudos de la violenta explosión (véase la
Fig. 12), fenómeno que se conoce como supernova.

Las estrellas masivas acaban su vida en una explosión cataclísmica llamada supernova. Mientras el
núcleo de la estrella se comprime a densidades enormes, las capas exteriores son expulsadas
violentamente.

Durante los primeros meses que siguen a la explosión, la supernova alcanza el brillo de
mil millones de soles. En el centro de la nube se halla un pulsar que ha sido estudiado
detalladamente. El pulsar es una estrella de neutrones que emite pulsos de radio. A la
nube de gas se le llama la nebulosa del Cangrejo porque los filamentos que tiene
recuerdan las patas de un cangrejo.
Si la estrella tenía una masa entre seis y treinta veces la masa del Sol, el núcleo en
colapso logra estabilizarse. Éste está formado exclusivamente de neutrones, y de ahí su
nombre, estrella de neutrones. ¿Se observan en el cielo este tipo de estrellas? Con un
telescopio que capte luz visible no se les puede detectar porque son pequeñísimas, como
de unos 10 kilómetros de radio, y emiten muy poca luz visible. Sin embargo, poseen en su
superficie regiones que emiten intensas ondas de radio que sí pueden ser estudiadas.
Como las estrellas de neutrones rotan velozmente, actúan como un faro cósmico. Cada
vez que dan una vuelta, la región que emite ondas de radio apunta hacia la Tierra (véase
la Fig. 13).

Figura 13. Las estrellas de neutrones rotan velozmente y tienen en su superficie regiones que emiten
copiosas ondas de radio. Cada vez que la región emisora pasa enfrente, se detecta un pulso, como si
se tratara de un faro.

Este tipo de emisión de radio en pulsos fue detectado por vez primera en 1967 por los
radioastrónomos británicos Jocelyn Beil y Antony Hewish. O sea que las estrellas de
neutrones y los pulsares son el mismo objeto. En la actualidad se conocen varios cientos
de pulsares (estrellas de neutrones).
Aun cuando las enanas blancas y las estrellas de neutrones son objetos fantásticos, no
cabe la menor duda de su existencia. Sus características son casi increíbles. Las estrellas
de neutrones son densísimas; el contenido de una cuchara de la materia que forma una
estrella de neutrones pesa más que cien millones de elefantes; sin embargo cientos de
ellas son estudiadas a diario por los astrónomos.
El tercer posible estado terminal de una estrella presenta características aún más
desconcertantes. Si la estrella tenía originalmente más de treinta veces la masa del Sol,
su núcleo continúa colapsándose más allá de la etapa de estrella de neutrones hasta
formar un hoyo negro.
Figura 14. De acuerdo con su masa original, las estrellas acaban su vida de manera distinta. Las
etapas terminales de enana blanca y estrella de neutrones han sido corroboradas mediante la
observación. Sin embargo, la existencia de los hoyos negros es aún discutida.

A diferencia de las enanas blancas y las estrellas de neutrones, que son observadas y
estudiadas rutinariamente, no existe aún prueba definitiva de que los hoyos negros
existen. ¿Por qué? El hoyo negro que la teoría predice que se debe formar a
consecuencia del colapso de una estrella, tendría un radio de sólo unos kilómetros. La
fuerza de gravedad en un hoyo negro es tan grande que ni la luz alcanza a salir de él, ya
no digamos un cuerpo material. Como el astrónomo estudia a los objetos cósmicos de
acuerdo con la radiación que emiten, parecería que un hoyo negro estaría condenado a
permanecer por siempre indetectado. Sin embargo, existen procedimientos para descubrir
de manera indirecta a un hoyo negro.
A diferencia del Sol, que es una estrella solitaria, muchas estrellas coexisten en pareja.
Supongamos que una de las estrellas de la pareja evoluciona hasta convertirse en un
hoyo negro. Si bien un hoyo negro no emite luz de ningún tipo, sí continúa ejerciendo
atracción gravitacional sobre sus contornos. Como antes de que una de ellas se
convirtiera en hoyo negro, las dos estrellas continuarán orbitando una alrededor de la otra
como dos danzantes que valsean. Pero ahora es sólo una estrella la que valsea con una
pareja invisible, el hoyo negro. Se ha observado ya varias estrellas que giran alrededor de
un compañero invisible. El prototipo es la estrella HDE 226868, asociada a una fuente de
rayos X llamada Cisne X. Si la estrella está cercana al hoyo negro, éste le arrebatará gas
de sus capas exteriores, y la atraerá hacia sí, tragándola hacia su interior. En el paso de
la estrella al hoyo negro, el gas es calentado a grandes temperaturas, emitiendo
intensamente rayos X. Esto es precisamente lo que se observa en Cisne X.
Para detectar los rayos X, que no penetran la atmósfera terrestre, fue necesario colocar
satélites astronómicos en órbita por arriba del manto protector de nuestra atmósfera que
no permite que los destructores rayos X alcancen la superficie terrestre. Sin embargo, aún
no se acepta que Cisne X es un hoyo negro, porque también la presencia de una estrella
de neutrones "obesa" podría explicar las observaciones hechas. La masa del compañero
de Cisne X es de más de ocho veces la masa del Sol, mientras que se supone que las
estrellas de neutrones no pueden exceder de cuatro masas solares. Esta situación
favorece la teoría de que Cisne X sea un hoyo negro, pero los astrónomos son personas
muy escépticas y quieren pruebas contundentes y muy claras. Recientemente, se ha
sugerido que en el núcleo de algunas galaxias, entre ellas la nuestra, mora un hoyo negro
con masa formidable, millones de masas solares y aún más. Estos hoyos negros
supermasivos pudieron haberse formado junto con el resto de la galaxia hace alrededor
de diez mil millones de años. Quizás el estudio de este tipo de objetos en el núcleo de las
galaxias dé la evidencia sólida e indiscutible que los astrónomos más incrédulos
reclaman.

40) De acuerdo a su entender, como fue el origen del universo y todas las
formas que puede ser su final.
El origen del universo comenzó con el bigbang, toda la materia el espacio y el
tiempo que existe se creo hace mas de 13 mil millones de años, por lo tanto creo
que el final del universo sea la contracción de esa gran explosión, volviendo todo a
esa singularidad de densidad infinita.
41) Vea y estudie el videl de Michio Kaku , sobre descifrando el tiempo y
haga un resumen del mismo y sobre la manipulacion del tiempo, en que
teorias se basa para suponer que se puede viajar al pasado y al futuro...
Einstein desarrollo dos teorías la teoría especial de la relatividad y la teoría general de
la relatividad, la primera contempla viajar en el tiempo al futuro y la segunda
contempla solo viajar en el tiempo al futuro sino también al pasado. Lo que descubrió
Einstein es que el tiempo se ralentiza para alguien que está en movimiento en
comparación con alguien que está quieto, en otras palabras un reloj que se encuentra
dentro de un tren en movimiento se avanza más despacio que uno que encuentra
afuera del tren.
La velocidad de la luz es constante. No importa si te mueves en dirección a ella o te
alejas, la luz siempre tendrá la misma velocidad. Sin importar a qué velocidad nos
movamos siempre podremos ver nuestro reflejo ya que la velocidad de la luz siempre
es la misma, entonces lo que tiene que cambiar es el espacio y el tiempo.
Resumiendo, cuanto más rápido nos movemos más se ralentiza el tiempo dado que la
velocidad de la luz es constante a través del universo.
Si un astronauta viaja en una nave espacial a velocidades supersónicas el tiempo
dentro de la nave será mas lento que el de la tierra, todo ira más despacio dentro de
la nave, el latido del corazón del astronauta ira más despacio junto con todos los
procesos de su cuerpo, entonces envejecerá más despacio, todo dentro de la nave
envejecerá más despacio. Esto es lo que hace posible viajar al futuro en la teoría
Por el momento se han podido acelerar partículas hasta el 99.995% de la velocidad
de la luz. Ya que los protones son partes de átomos y el cuerpo humano está formado
por átomos se cree que sería posible llevar una persona a estas velocidades
Una posibilidad sería un cohete situado en el espacio impulsado por una maquina
capaz de emitir rayos láser de gran potencia, para contrarrestar la perdida de
velocidad producida por el choque del cohete con las partículas de gas interestelar
tendía que tener un motor de antimateria
Otra posibilidad podría ser pasar tiempo alrededor de la gravedad de una estrella.
Este es otro de los descubrimientos de Albert Einstein. Los rayos de luz se tuercen y
doblan ante la presencia de objetos estelares de gran tamaño como las estrellas y los
planetas, combinados con sus estudios anteriores desembocaron en la teoría general
de la relatividad, esta teoría establece que el tiempo y el espacio so como un tejido
que se puede retorcer y comprimir dependiendo de la cantidad de masa que tengas
en un momento dado. El espacio es flexible por lo tanto es tiempo también lo es, estos
dos están ínfimamente relacionados y hasta lo llamo la cuarta dimensión.
Si un reloj viaja alrededor de un campo gravitacional muy grande este es un obstáculo
para el tiempo haciendo que transcurra más despacio. Para que esto sea más eficaz y
pudiéramos viajar al futuro lo mejor sería utilizar el campo gravitacional que se
encuentra dentro y alrededor de los agujeros negros; en el espacio existen posos con
forma cónica que ralentizar radicalmente el tiempo, si uno se acerca lo suficiente a un
agujero negro el tiempo se ralentizara tanto para él que minutos serian cientos de
años para el resto.
Viajar al pasado es más complicado, para poder viajar físicamente al pasado se
necesitaría sobrepasar la velocidad de la luz, y como Einstein demostró eso es
imposible. Pero en un espacio-tiempo curvo podemos ganarle a un rayo de luz tomar
un atajo, esto se puede lograr mediante la gravedad que curva el tiempo a tal forma
que si uno está viajando al futuro puede dar una vuelta completa y visitar un suceso
de su pasado, puedes regresar antes haber salido en ese viaje, los científicos lo
llaman curva temporal cerrada o CTC. Un estudiante de la universidad de Tulane
propuso matemáticamente que si hubiera un cilindro en rotación de longitud enorme el
espacio girando miles de veces por segundo a casi la velocidad de la luz se podría
crear una temporal cerrada, la rotación de este cilindro enorme produciría que el
espacio se doblara y eso produciría que tiempo se doblara en un bucle, si uno da la
vuelta de forma correcta podría llegar justo al momento antes de partir, lo que produce
un problema solo se puede volver al momento en que la maquina fue construida, si
quieres regresar a un lugar más alejado en el continuo es encontrar una un tipo de
máquina del tiempo que ocurra de forma natural.
Los científicos creen q una de las mejores formas de viajar en el tiempo descansa en
las cuerdas cósmicas, se cree que se crearon en el primer instante después de del big
bang. Son haces largos y finos de un material muy denso que vibra liberando energía
a medida que flotan y vuelan a través del universo, pesan alrededor de mil billones de
toneladas por centímetro (una cuerda cósmica de 1 Km pesaría más que la propia
Tierra ), J Richard  Gott piensa que esta densidad extraordinaria podría hacer que las
cuerdas curvaran el espacio tiempo y para esto se necesitarían dos cuerdas. Las
cuerdas tienen una longitud infinita, vuelan por el cosmos a velocidad de la luz y se
cree que con el tiempo se estiran; ahora cuando dos cuerdas cósmicas pasan una a
lado de la otra a la mitad de la velocidad de la luz generan tanta energía que
distorsionan el espacio-tiempo de forma muy extraña, lo deforma a su alrededor y es
como si se le quitaran dos porciones de pizza opuestas luego el espacio-tiempo se
une en los espacios vacíos formando un cono y en ese momento se forma un bucle
temporal cerrado, deja al descubierto un atajo por el cual uno podría adelantarse a un
haz de luz que viaja por el camino más largo, por el momento la única forma de llevar
a cabo esto es por un túnel de gusano y la mejor forma de encontrar un máquina del
tiempo de agujero de gusano es en un conjunto de agujeros negros, lo malo es que en
agujero negro todo se desintegra pero si el agujero negro estuviera girando se podría
saltar dentro de él, la fuerza centrífuga es tan fuerte que mantiene un garganta abierta
dentro de él pudiendo comunicarse un agujero negro con otro y saliendo en el
segundo ya en un tiempo distinto.
Sin embargo el viajar al pasado conlleva muchos problemas como las paradojas
temporales, si viajo al pasado y mato a mi abuelo yo no podría haber viajado al
pasado y no podría haber matado a mi abuelo.
Si hubiera mas de un universo y mas de un alinea de tiempo como las vías de tren
que de una se divide en dos y puede pasar de una a otra, si existe más de una línea
temporal se podría ir a un pasado remoto, un futuro lejano e incluso a un presente
alternativo
La solución `puede estar en el mundo cuántico donde un electros puede estar en dos
lugares a la misma vez, se trata del principio de incertidumbre de Heidelberg, esto no
tiene lógica para cosas grandes pero ocurre todo el tiempo en el mundo cuántico en
aparatos electrónicos. Una forma de resolver esto es que existen electrones paralelos
en universos diferentes lo que plantea una multiversion de universos. Con esto se
podría resolver la paradoja temporal , si un viajero del tiempo regresa al pasado y
mata a su abuelo simplemente se pasaría a otro universo donde un viajero del tiempo
mata a su abuelo.
42) Ver y estudiar el video Mas Alla del Big Bang, hacer un resumen del mismo...
El universo se expande día a día; para entender o llegar a esa conclusión, pasaron
muchas teorías, muchos pensadores y muchos años.
Podríamos empezar con el hombre primitivo, para él el mundo era hostil, duro y
caótico, intentaban conectar con el cielo, que ellos consideraban como hogar de los
dioses, a través de estructuras sencillas, la más importante de la época es el
Observatorio solar de goseck, que lo usaban para calcular las épocas del año con la
posición del sol, de esta manera les servía la agricultura, tomaban al cielo nocturno
como un reloj.
Luego vieron ligada la astrología con la astronomía, estudiaban el cielo debido a que
según su movimiento pronosticaban el futuro; dividieron al cielo en sectores según las
formas que les encontraban a las estrellas.
Hace aproximadamente 2000 años gracias a las matemáticas lograron estudiar al sol
y a la luna, los griegos vieron 5 planetas y le dieron los nombres de sus dioses.
El filósofo griego Aristóteles imaginó la Tierra en el centro del universo, y dijo que el
universo era finito.
En el siglo I Tolomeo, detalló con precisión las sendas de los planetas mediante
epiciclos, también predijo el comportamiento futuro de los planetas.
En 476 d.C la astronomía se detuvo, con la división y caída del imperio romano.
Recién se volvió en el siglo XV d.C. con la teoría del Heliocentrismo propuesta por
Nicolás Copérnico, el planteaba que en realidad el centro del universo era el sol y no
la Tierra “De ninguna otra forma se haya una conexión más exacta y armoniosa entre
el tamaño de una orbita y su duración”. Además descubrió que la Tierra rotaba
respecto a un eje cada 24 hs.
Copérnico nunca se animó a publicar sus teorías debido a que contradecía de cierta
manera lo que decía la iglesia. Fue Johanes Kepler, quien se basó en el libro
“Revoluciones de las esferas celestes” de Copérnico para dar a luz todo lo que
Nicolás había descubierto pero no publicó. Kepler mejoró lo que se había descubierto,
propuso que el concepto de círculos perfectos era erróneo, por lo tanto los planetas
viajaban en elipses alrededor del sol, y cuando se acercaban al sol aumentaban su
velocidad. Lo que no se logró explicar es ¿por qué el sol influía en la velocidad de los
planetas?
A fines del siglo XVII un filosofo italiano Galileo Galilei, estudió el cielo mediante un
telescopio (instrumento que revolucionó a la época) ya que acercaba objetos distantes
mediante dos lentes y un tubo. Creó un telescopio de 30 aumentos, con el observó el
cielo, donde pudo descubrir los cráteres de la luna, los anillos de Saturno, que Venus
pasaba por fases como la luna.
Galileo iba en contra a las estructuras, se lo tomaba como el mensajero de las
estrellas
El 1693 el papa obliga a renunciar a sus investigaciones, y lo pone bajo arresto
domiciliario, mientras pasó sus últimos años, se dedicó a la observación del por qué
los elementos al caer, independientemente de la masa, caían a la misma velocidad.
En 1643 nació Isac Newton, quien años más tarde descubrió el mecanismo de como
se movían los planetas y todo lo que nos rodea. Se basó en las matemáticas para
describir el universo. El sol actuaba como un imán gigante. De la unión de la Teoría
de Kepler y de Copérnico introdujo una nueva fuerza en el universo llamada
“GRAVEDAD” que es la fuerza que a distancia mantiene todo en su sitio. Las leyes de
Newton explicaban casi todas las leyes del movimiento. “Todo lo que tiene masa atrae
a todos los objetos que tienen masa”.
En 1879 nació en Suiza otro gran científico, probablemente el más importante del
siglo, Albert Einstein quien en 1905 publicó una teoría sobre el espacio y tiempo “LA
RELATIVIDAD GENERAL”, con ella postulaba que el universo era infinito y eterno, e
incluía a la gravedad en el tejido espacio-tiempo.
El espacio tiempo se curva ante la presencia de la materia, la gravedad es un tejido
de la defomación espacio-tiempo, ni la luz escapa de su influencia, esto se demostró
viendo objetos detrás del sol, ya que los objetos podían deformar el espacio-tiempo.
TEORÍA DE LA RELATIVIDAD TENIA UN PROBLEMA, la masa se junta por efecto
de la gravedad, pero ¿que hacía que se separará?, Einstein propuso una fuerza igual
y opuesta para mantener todo estático, que no tuvo un principio ni tendrá un fin, pero
en realidad en las ecuaciones se podía ver que el universo en realidad es dinámico y
cada vez se expande más.
Surgieron teorías como la del BIG BANG en la cual se proponía que el universo tuvo
un principio, el que inició esta idea fue LEMAITRE en 1920, en el cual proponía que el
universo se expandia, y propuso la teoría del ATOMO PRIMOGENEO pequeño,
denso y caliente a partir del cual dio inicio a todo.
En 1925 Hubble propuso que el sol era una estrella entre millones y creo una vela
estándar, en la cual se conoces la intensidad de la estrella, podes calcular a que
distancia se encuentra, de esta manera intento calcular la edad del universo, y obtuvo
como resultado 2.000 millones de años, lo cual no podía ser, este calculó fue
inexacto.
Descubrió la nebulosa de Andrómeda que se encuentra a un millón de años luz de
nosotros y es un universo independiente (además de la via láctea). Además pudo
observar que las galaxias se alejan unas de otras lo cual mostraba que el universo no
era estatico.
A mediados del siglo xx se produjo la teoría del estado estable, en la cual se
postulaba que el universo siempre existió y nunca tendría fin. El universo se había
formado a partir de los átomos de hidrogeno, que se fundían dando lugar al helio. Esta
formación de compuestos se creaban en el núcleo de las estrellas.
En oposición a este postulado George Gamoff, decía que el hidrogeno y el helio se
crearon a partir de un gran estallido a temperaturas de miles de grados mas que el de
cualquier estrella, y que si en algún momento hubo tanto calor, todavía no se podría
haber enfriado.
En 1960 se construyó un RADIOMETRO y se buscó la radiación presente en el big
bang, con un radiotelescopio (construido por PENSA Y WILLSON) captaron ruido
estatico proveniente de todas partes y en todas direcciones. Lo que confirmó la Teoría
del áomo primitivo.
Hoyle propuso en el siglo xx que la temperatura era uniforme en el espacio sideral,
que el universo había tenido un volumen diminuto, y se expandió más rápido que la
luz. Lo cual no era posible ya que el limite de velocidad es el de la luz.
Alan Guth propuso que todas las fuerzas estaban unidas en una super fuerza, antes
de dividirse no habían leyes validas. Se expandió tan rápido que mantuvo la
uniformidad de calor que tenían cuando estaban todas juntas. Este calor fósil y
remanente se vió fotografiado por un satélite ( WMAP Satélite) y se comparó el antes
y el ahora. Al comprobar con las fotografías que el calor era uniforme, se aceptó la
idea del atomo primitivo y que fue mucho mas pequeño que la fracción de un átomo,
estaba hipercaliente y las 4 fuerzas se encontraban concentradas y amalgamadas en
1 fuerza. La gravedad se separa de las fuerzas cuando explota y el universo se
empieza a expandir, se enfría liberando energía y generando la hiperinflación del
universo.
A menos de un segundo del estallido Las 4 fuerzas se dividieron, en 3 minutos la
temperatura del universo desciende a 555.555.577 °C dando lugar a la formación de
hidrogeno, que luego al fundirse forma helio.1 millon de años después Luz viaja a
través de la gravedad, Estallido de la explosión forma estrellas y genera el nitrógeno,
oxigeno y carbono.
9 millones de años después Materia y gravedad generan una estrella perfectamente
típica, el calor disipa la fusión termonuclear y nace una estrella, el flujo estelar despeja
los gases residuales disco circunestelar de polvo y se une a una sequita de planetas y
lunas, este cumulo de polvo estelar adquiere la temperatura necesaria para formar
agua en la atmosfera y las reacciones químicas por efecto del agua generan vida.
156.000 millones de años luz el sol se quedará sin combustible nuclear que le da
energía, y empezará a comerse a los planetas más cercanos a él como mercurio, al
llegar cerca de la Tierra evaporará el agua, y también lo absorberá; el combustible del
sol provocara que se contraiga y pase a ser una enana blanca y viajará en la nebulosa
planetaria del espacio. Debido a las barreras atmosféricas el calor se agota y se
vuelve el sol una enana negra.
Todo esto debido a la energía oscura, el universo se sigue expandiendo y cuando
venza la gravedad se destruirá todo, hasta los átomos serán destruidos por esta
energía oscura que desconocemos(Teoría del Fin del Universo)
TODOS ESTAMOS LIGADOS UNOS A OTROS BIOLOGICAMENTE, A LA TIERRA
QUIMICAMENTE Y A UNIVERSO ATOMICAMENTE. ESTAMOS EN EL UNIVERSO
Y ÉL ESTÁ EN NOSOTROS.
43) VEA LOS VIDEOS SOBRE HISTORA DE LA HUMANIDAD Y LOS
MATERIALES, EL I Y II HAGA UN RESUMEN DEL MISMO…ESTUDIE ESTE
RESUMEN PARA EL EXAMEN DEL COLOQUIO
Hace 2 millones y medio de años comenzó la Edad de Piedra, el hombre utilizo
piedras afiladas para cortar, cazar y defenderse de animales y otros hombres; con el
tiempo creo flechas, lanzas, hachas.
El descubrimiento del fuego hace 200 mil años fue fundamental. El mismo les permitió
cocinar, protegerse del frio, iluminar, por ejemplo, cuevas para buscar piedras y
minerales dando origen a la Industria Minera que permitió el descubrimiento de
nuevas materias primas y a la Alfarería, con la cual el hombre creo recipientes,
ladrillos, tejas y el horno alfarero (base del horno metálico, con el que inicio la
Metalurgia).

La prehistoria se dividió en tres de acuerdo a los materiales predominantes:


 Edad de Piedra
 Edad de Bronce
 Edad de Hierro
Y la historia comenzó a partir de la escritura:
 Edad Antigua
 Edad Media
 Edad Moderna
 Edad Contemporánea

El desarrollo de las diferentes edades de la prehistoria se dio de manera


independiente alrededor del mundo, por lo tanto jugó un papel fundamental la
posibilidad de comunicación y de intercambio entre las diferentes regiones.
El 99,7% de la historia transcurrió en la Edad de Piedra.
El paso de esta a la Edad de Bronce se dio gracias al fuego: los minerales de cobre
se fundían dentro de los hornos alfareros que contaban con fuentes de aire dando
como resultado cobre metálico, una masa líquida rojiza, a la cual se le podía dar
forma, creando hachas, espadas y puntas de flechas. Éstas no eran tan filosas como
las de piedra, pero eran menos frágiles y más maleable.
La Edad de Bronce comenzó cuando al cobre se le agrego estaño creando una
aleación, volviéndolo más fuerte y bajándole la temperatura de fusión. Al bronce se lo
podía utilizar para crear escudos y armas, pero no en la construcción de puentes o
carruajes porque los minerales de cobre no son abundantes en la naturaleza, por eso
el hombre continuo utilizando la piedra en las grandes construcciones.
El ingreso a la Edad de Hierro tardó porque los hornos no eran capaces de fundir el
hierro, porque no alcanzaban tan altas temperaturas. El cobre funde a 1083 ºC y el
hierro a 1535 ºC. En Europa se conoció el hierro fundido en el siglo XIV d.C. con la
creación de hornos con grandes inyecciones de aire. En América se desarrolló con la
llega de Colón. En los hornos de cerámica, como resultado se obtenía un hierro
esponja con poros llenos de escoria. El hombre golpeaba la esponja cuando estaba
aún caliente, la escoria salía de los poros y el compuesto se compactaba en una pieza
metálica sólida: hierro. Esto fue descubierto por la civilización hitita entre 1000 y 2000
años a.C. A este metal se le podía dar forma, era más duro que el bronce, facilito la
manipulación de metales y la agricultura.
Con el hierro fundido se desplazó a la piedra para las construcciones de puentes y
también permitió construir equipos y maquinas: máquina de vapor. Surgieron nuevas
tecnologías en el transporte, la agricultura, se descubrió el aluminio y titanio. El vidrio
también apareció gracias al hierro.
Aluminio
Al principio, sólo podían producirse pequeñas cantidades por un método muy costoso,
pero en 1886 se desarrolló el método que hoy permite producirlo de forma económica.
El hecho de ser liviano y mecánicamente resistente lo convirtió en un material clave
en la industria aeronáutica
Titanio
Fue descubierto en 1971 pero recién luego de la 2 da Guerra Mundial se conoció un
método químico para producirlo comercialmente. Es duro como el acero, tiene mucha
resistencia a la corrosión. La relación entre bajo peso y alta resistencia mecánica
permitió el desarrollo de la tecnología aeroespacial. No es toxico, se lo puede utilizar
para medicina: sobre titanio oxidado crece tejido óseo. Ocupa el 9 no lugar en la cortera
terrestre (0,62%), el problema en la actualidad es su costosa fabricación.
Hierro
Metal maleable, muy duro. Es de bajo costo, abundancia y buenas propiedades
mecánicas, por esto es el más producido en el mundo (95,45% con el acero).
Piedra
Hoy se la utiliza como el componente fundamental de hormigón o en forma de placas
(diferentes formas, tamaños y acabados) para baldosas, mesadas o frente de
edificios.
Porcelana
Augusto II encaró el desarrollo de esta. Se obtuvo en 1708 el “oro blanco”, que es una
porcelana finísima. Es un excelente aislante eléctrico, por eso se la utiliza como
aislador de alto voltaje, en arquitectura y odontología.
Tubos de vacío
Derivados de las lámparas eléctricas creadas por Thomas Edison. Fueron usados
para las primeras radios, que fueron creadas por Gugliermo Marconi. Se pueden usar
para procesar información. En la década de los 40, las primeras computadoras tenían
alrededor de 10 mil tubos, por esta razón consumían mucha electricidad.
Técnica de fusión zonal
Sirve para producir metales de mayor pureza, también sirvió para producir germanio y
silicio puros, controlando sus propiedades eléctricas. En 1947 se desarrollaron los
transistores, los cuales reemplazaron a los tubos de vacío: menor consumo, menor
tamaño y sin necesidad de alto voltaje.
También se desarrollaron los circuitos integrados que permitían incorporar millones de
transistores en una placa de silicio.
Silicio
En estado puro, es un material semiconductor, es decir, tiene propiedades eléctricas
que lo ubican entre un conductor y un aislador. Sobre una placa de silicio, es posible
colocar millones de transistores que forman microcircuitos integrados, la basa del
funcionamiento de los dispositivos modernos.
Plásticos
En 1912, se conocía la goma, celuloide. Durante la 2GM, uno de los objetivos era la
obtención del caucho sintético. El proceso de vulcanización de la goma sigue siendo
la base en la industria del caucho. El primer plástico sintético fue la baquelita (1909).
30 años después se introdujo la fibra sintética en reemplazo de la ceda: el nylon.
 Teflón: Polímero con cadena de átomos de carbono unidos a átomos de Flúor,
por lo cual es químicamente resistente. Se lo usa para elementos de cocina,
revestimiento de cables, bobinaje de motores.
 Kevlar: Producido en forma de fibra de alta resistencia. Se lo usa para
confeccionar chalecos antibalas
Entre 1970 y 1980 se fue mejorando la transparencia del vidrio. Se produjeron fibras
ópticas de pequeño espesor capaces de conducir señales luminosas en muchos km
de distancia. Son eficientes para transmitir información.
Materiales compuestos
Formados por una matriz de un material determinado y fibras de otro material,
logrando así una resistencia mecánica más elevada cuando están unidos que cada
uno por separado. Ejemplo: plástico reforzado con fibras de vidrio para fabricación de
botes y carrocería de autos, también ladrillos de adobe (barro y pasto).
Materiales con memoria
Se los descubrió con una aleación de níquel y titanio (nitinol): se la deformo y se
observó que no se rompía, luego la calentaron y comenzó a enderezarse hasta su
forma original. Se hallaron más de una docena de aleaciones con esta propiedad de
memoria. Tienen grandes aplicaciones en medicina.
Nanomateriales
Se descubrió que los materiales llevados a dimensiones de unos pocos átomos no
tienen las mismas propiedades (ópticas, eléctricas y térmicas) que en dimensiones
visibles. Es una industria en desarrollo que promete grandes avances tecnológicos.

44) ¿Cómo se supone que los universos pueden finalizar su vida?


Big freeze
El primer escenario se basa en un colapso generalizado en el Universo, en el que todas
las estrellas terminarían por consumir su combustible nuclear, sin posibilidad de volver a
rellenar sus niveles. ¿El motivo? La fuerza de repulsión sería más fuerte que la gravedad,
terminando por separar los planetas entre sí, perdiendo su energía, siendo incapaces de
generar nuevas estrellas y sumiéndose en un frío eterno provocando la muerte térmica del
Universo. Esta situación provocaría que buena parte de las estrellas pasaran a convertirse
en enanas blancas, un remanente estelar que se provoca cuando 'muere' un astro y sobre
el que los científicos aseguran que el 97% de las estrellas que conocemos pasarán a esta
forma en algún momento de su vida, incluido el Sol. Otros cuerpos celestes de mayor
tamaño se convertirían en agujeros negros, terminando por consumir toda la materia que
encuentren a su paso.
Se trata de otra de las opciones más respetadas, en lo que puede llegar a considerarse el
caso contrario al Big Bang. También se formaría un Universo diferente al que conocemos,
pero en esta ocasión, en lugar de ser consecuencia de una gran explosión, sería por una
especie de retorno a los orígenes. Lo que los expertos postulan es que la atracción
gravitatoria de las estrellas provocará que, en algún momento, todas vuelvan a unirse en
un solo elemento.
Big Crunch
Esta situación daría lugar a que todas las galaxias y las estrellas formaran un único
cuerpo celeste para, poco después, convertirse en un punto minúsculo de materia. Los
expertos que apoyan esta teoría consideran que el Universo es un ecosistema ordenado y
que, igual que de un punto pequeño se expandió para formar un Universo infinito, en
algún momento indefinido ese mismo Universo volverá a sus inicios y se convertirá en ese
mismo conjunto de masa de escaso tamaño.
Big Rip
Por último, el tercer gran escenario que se plantean los científicos tiene que ver
directamente con la materia oscura. Al tratarse de un elemento tan poco conocido, solo
cabe especular sobre ella, pero en caso de que la presión ejercida tuviera unos
determinados valores, la posibilidad de que el Universo deje de ser como es pasa a ser
posible. ¿Cómo? Con el desgarramiento del sistema, en el que la gravedad perdería su
función, provocando que las estrellas se separen
El fin del Universo comenzaría con las galaxias separadas entre sí; después, los planetas
dejarían de formar parte de las galaxias y perderían su cohesión gravitatoria; por último,
las estrellas y planetas se convertirían en átomos separados, que terminarían por ser
consumidos por la radiación. Así, en el Universo solo quedarían partículas subatómicas
flotantes, separadas de por vida entre sí y sin posibilidad de volver a unirse nunca más.
Fuente:  “El universo y su destino final”, L. P. Jhonson
45) Vea los videos sobre nanotecnología, el I y el II, vea el ejemplo del
hormigón con nanotubos de carbono, haga un resumen sobre estos
videos, estúdielos.
Video sobre nanotecnología I

Este video habla sobre los nanomateriales. La nanotecnología se puede definir como
la ciencia de lo pequeño (del orden de 1Nm), un nanómetro es
10−9 m=0,000000001m. Es decir que la nanotecnología son las ramas de la ciencia y
de la tecnología que trabajando juntas desarrollan nuevos materiales y nuevos
dispositivos, aprovechando propiedades atómicas y moleculares a escala de los
nanómetros.
Los nanomateriales son aquellos en los cuales introducimos nuevas propiedades,
introduciéndoles nanosistemas. Por ejemplo: el hormigón no se puede flexionar
porque fractura, se rompe, un experimento en el cual se fabrica un hormigón con
nanotubos de carbono muestra que éste tiene una capacidad de flexión muy alta (10
veces más que un hormigón común). Estos nanotubos de carbono se incorporan en el
proceso del hormigón, forman una estructura y hacen que este material sea mucho
más elástico que el material tradicional.
Actualmente, en todo el mundo científicos de distintas áreas utilizan micro y
nanotecnología con aplicaciones que van desde la introducción de mejoras en
productos de uso diario hasta el desarrollo de innovaciones. Se utiliza nanotecnología
en la producción de objetos tecnológicos, en el procesamiento y envasado de
alimentos, en prendas con telas antimanchas, antiarrugas, en pinturas que resisten al
rayado o en artículos deportivos. Se utilizan también para mejorar los sistemas de
aislamientos, para sistemas de iluminación más eficaces (lo que permitirá grandes
ahorros de energía), el medio ambiente se va a ver beneficiado con esta nueva
tecnología.
Cuando se habla de métodos de fabricación, o de producción, de objetos o
dispositivos nanotecnológicos, hay dos metodologías: de arriba hacia abajo ir
achicando los dispositivos, que se llama “top-down” (ir reduciendo cada vez más las
dimensiones de un dispositivo); la otra metodología se conoce como “bottom-up”, de
abajo hacia arriba (ir sumando o agregando moléculas en forma muy controlada para
construir objetos precisos).
Entre todas las nanoestructuras que existen hay que destacar los nanotubos de
carbono y los fullerenos. Un nanotubo de carbono es un arrollamiento de un plano de
grafeno sobre sí mismo para formar un tubo a escala nanométrica, los nanotubos de
carbono tienen propiedades mecánicas muy impresionantes como que los dos
extremos se encuentren unidos por una cadena de átomos de carbono
unidimensional. Los fullerenos son estructuras que tienen la forma de una pelota de
futbol formada por hexágonos que en cada uno de sus vértices tienen un átomo de
carbono.

Video sobre nanotecnología II

En 1981, el desarrollo del microscopio de efecto túnel permitió a la ciencia conquistar


un nuevo mundo, ver la materia a escala atómica y luego, manipularla en esas
dimensiones, hizo posible crear nuevos materiales con nuevas propiedades y
sorprendentes aplicaciones, fue el germen de una revolución que recién comenzaba y
que iba a tener efectos e implicancias sociales, económicas, políticas, éticas y un
profundo impacto en nuestras vidas: la revolución de la nanotecnología y los
nanomateriales.
La nanotecnología también resulta muy eficiente en el campo de la medicina, como
por ejemplo en la oncología, se cree que en un futuro, con ayuda de esta tecnología,
se podrá introducir en nuestros cuerpos nanorobots que maten desde adentro las
células cancerígenas; otro ejemplo es la nanovacunación.
Dentro de las nuevas invenciones desarrolladas se encuentra la nariz electrónica,
permite clasificar los aromas, como la nariz humana, está formada por microsensores
de película delgada, para desarrollar esos sensores se utiliza la nanotecnología, se
utiliza por ejemplo para reconocer si un alimento está o no en mal estado; dentro de
este concepto de nariz electrónica también se encuentra lo que se conoce como un
sensor de gas, que permite clasificar si el aire está en buen estado o en mal estado
para ser respirado.
El microscopio electrónico de transmisión tuvo una parte muy importante en lo que es
la nanotecnología ya que, por ejemplo, los nanotubos de carbono se descubren
gracias al mismo. El microscopio de fuerza atómica consiste en una punta muy aguda
que se desplaza sobre la superficie a estudiar.
Los materiales del orden nanométrico presentan propiedades muy diferentes a los
materiales masivos. Actualmente se producen micromáquinas o microsistemas,
sistemas micro electromecánicos y se prevé el desarrollo de nanomáquinas mediante
la técnica “bottom-up”. Las micromáquinas son estructuras mecánicas de tamaño
micrométrico que se fabrican con técnicas similares con las que se fabrican los
circuitos integrados que se utilizan en electrónica, son muy chiquitas y livianas, es
decir que son muy rápidas y muy sensibles a fuerzas o efectos del exterior; ejemplo:
los espejitos que controlan la proyección de datos los proyectores de las
computadoras en una pantalla grande.
El circuito integrado permitió a la microelectrónica constituirse en la base de la
tecnología moderna, y hoy un chip puede contener decenas de millones de
transistores.
La reducción de las dimensiones de un dispositivo está llegando a su límite, entonces
para poder obtener elementos más pequeños y potentes lo que se va a hacer es
construirlo átomo a átomo, molécula a molécula.
La nanotecnología se extenderá rápida y globalmente, tendrá un carácter disruptivo,
es decir que provocara una nueva configuración de las condiciones de producción y
de competitividad internacional. La utilización de la nanotecnología tendrá
consecuencias en el área de recurso naturales, en las materias primas, tendrá
implicancias políticas económicas, sociales, etc.

46) Desarrolle su opinión de por que NO haría una vivienda con


cerramiento y estructura de madera, investigue y desarrolle su retórica.
Muchas personas comprueban la pobre calidad y menor vida útil al ver casas
prefabricadas y con el paso del tiempo ver su estado ya que a cualquier persona le es
posible detectar inconsistencias de diseño y signos de mala calidad en una casa.
En cuanto a la sustentabilidad, depende, en gran parte, de los materiales que se
utilicen. Que un producto sea inerte, o no tóxico, no lo transforma automáticamente en
ecológico. Además, no olvidemos que se requiere de un proceso industrial que
consume grandes cantidades de energía. Si a esto le agregamos el transporte de los
módulos o paneles hasta el sitio de ensamblaje (con las consiguientes emanaciones
de CO2 y consumo de combustible), y el hecho de que no sabemos cuál es el manejo
de desechos que se hace en la fábrica, es difícil asegurar que este tipo
de construcción sea ecológica.
En el mercado, hay un predominio de casas prefabricadas con pocas variantes de
modelos y mostrando diseños mediocres que no evolucionan.
Las casas hechas de madera o PVC pueden sufrir muchos más daños en zonas con
fenómenos meteorológicos extremos, como pueden ser riadas, nevadas o huracanes.
Evidentemente, ante un gran tornado de mucha fuerza, la casa prefabricada estará en
desventaja frente a una gran casa de ladrillo y cemento.

Bibliografía: http://www.arquitecturadecasas.info
http://ideasparaconstruir.com
http://casas.elbierzodigital.com

47) Desarrolle sobre propiedades de los materiales en DETALLE.


Las propiedades de los materiales son el conjunto de características que hacen que el
material se comporte de una manera determinada ante estímulos externos como la
luz, el calor, las fuerzas, etc. También se les puede llamar Propiedades Tecnológicas
o Características de los Materiales.

 Propiedades Eléctricas de los Materiales


Determinan el comportamiento de un material cuando pasa por el la corriente
eléctrica.
Una propiedad eléctrica es la llamada conductividad, que es la propiedad que tienen
los materiales para transmitir la corriente eléctrica. En función de ella los materiales
pueden ser:
Conductores : Lo son si permiten el paso de la corriente fácilmente por ellos
Aislantes: Lo son si no permiten fácilmente el paso de la corriente por ellos.
Semiconductores : se dicen que son semiconductores si solo permiten el paso de la
corriente por ellos en determinadas condiciones. (Por ejemplo si son conductores a
partir de una temperatura determinada y por debajo de esa temperatura son
aislantes).

 Propiedades Mecánicas
Estas quizás son las más importantes, ya que nos describen el comportamiento de
los materiales cuando son sometidos a las acciones de fuerzas exteriores. Una
propiedad muy general de este tipo es la resistencia mecánica, que es la resistencia
que presenta un material ante fuerzas externas. Algunas más concretas son:
Elasticidad: propiedad de los materiales de recuperar su forma original cuando deja de
actuar sobre ellos la fuerza que los deformaba. Un material muy elástico, después de
hacer una fuerza sobre el y deformarlo, al soltar la fuerza vuelve a su forma original.
Lo contrario a esta propiedad sería la plasticidad.
Plasticidad: propiedad de los cuerpos para adquirir deformaciones permanentes.
Maleabilidad: facilidad de un material para extenderse en láminas o planchas.
Ductilidad: propiedad de un material para extenderse formando cables o hilos.
Dureza: es la resistencia que opone un material a dejarse rayar por otro. El más duro
es el diamante. Los diamantes solo se pueden rayar con otro diamante. Para medir la
dureza de un material se utiliza la escala de Mohs, escala de 1 a 10, correspondiendo
la dureza 10 al material más duro. Si quieres saber más sobre esto visita la siguiente
página: Escala de Dureza Mohs.
Tenacidad: es la resistencia que ofrece un material a romperse cuando es golpeado.
Fragilidad: seria lo contrario a tenaz. Es la propiedad que tienen los cuerpo de
romperse fácilmente cuando son golpeados. El metal es tenaz y el vidrio es frágil y
duro.

 Propiedades Térmicas
Determinan el comportamiento de los materiales frente al calor.
Conductividad térmica: es la propiedad de los materiales de transmitir el calor,
produciéndose, lógicamente una sensación de frió al tocarlos. Un material puede ser
buen conductor térmico o malo.
Fusibilidad: facilidad con que un material puede fundirse (pasar de líquido a solido o
viceversa).
Soldabilidad: facilidad de un material para poder soldarse consigo mismo o con otro
material. Lógicamente los materiales con buena fusibilidad suelen tener buena
soldabilidad.
Dilatación: es el aumento de tamaño que experimenta un material cuando se eleva su
temperatura.
Nota: Las juntas de dilatación (separación) se hacen para que al aumentar de
volumen por el calor el material pueda alargarse sin curvarse.
Propiedades Ópticas
Se ponen de manifiesto cuando la luz incida sobre el material.
Materiales opacos: no se pueden ver los objetos a través de ellos.
Materiales transparentes: los objetos se pueden ver a través de ellos, pues dejan
pasar los rayos de luz.
Materiales translúcidos: estos materiales permiten el paso de la luz, pero no dejan ver
con nitidez a través de ellos. Por ejemplo el papel de cebolla.
Propiedades Acústicas de los Materiales
Determinan la respuesta de los materiales ante el sonido.
Conductividad acústica: es la propiedad de los materiales de transmitir el sonido
Decibelímetro: mide el sonido en decibelios. Los sonidos que percibimos deben
superar el umbral auditivo (0 dB) y no llegar al umbral de dolor (140 dB)

 Propiedades Magnéticas de los Materiales


Ponen de manifiesto el comportamiento frente a determinados metales.
Magnetismo: es la capacidad de atraer a otros materiales metálicos
Propiedades Químicas de los Materiales
Se manifiestan cuando los materiales sufren una transformación debida a su
interacción con otras sustancias. El material se transforma en otro diferente (reacción
química).
La oxidación: es la facilidad con la que un material se oxida, es decir, reacciona en
contacto con el oxígeno del aire o del agua, cediendo electrones. Los metales son los
materiales que más se oxidan.
Combustible: capacidad de arder y combinarse con el oxígeno. Se clasifican según su
capacidad calorífica, en alta PCS(poder calorífico superior) y baja PCI(poder calorífico
inferior).

 Propiedades Ecológicas de los Materiales


Según el impacto que producen los materiales en el medio ambiente, se clasifican en:
Reciclables: son los materiales que se pueden reciclar, es decir su material puede ser
usado para fabricar otro diferente
Reutilizable: Se puede volver a utilizar pero para el mismo uso.
Tóxicos: estos materiales son nocivos para el medio ambiente, ya que pueden resultar
venenosos para los seres vivos y contaminar el agua, el suelo o la atmósfera,
Biodegradables: son los materiales que la naturaleza tarda poco tiempo en
descomponerlos de forma natural en otras sustancias.

https://www.areatecnologia.com/TUTORIALES/PROPIEDADES%20DE%20LOS
%20MATERIALES.htm
48) DESARROLLE SOBRE CLASIFICACIÓN DE LOS MATERIALES SEGÚN SU
ORIGEN
●Materiales naturales Son todos aquellos que se encuentran en la naturaleza.
Constituyen los materiales básicos a partir de los cuales se fabrican los demás
productos. Es posible que solo pasen a ser útiles para el hombre cuando se someten
a un proceso de purificación, y no por eso dejarán de ser naturales. Las personas
utilizamos materiales naturales con diferente origen: mineral, vegetal o animal.

Origen mineral: se obtienen a partir de rocas y minerales. Los metales, la piedra o la


arena son materiales de origen mineral.

Origen vegetal: se obtienen a partir de las plantas. El material de origen vegetal más
importante es la madera, pero también existen otros que empleamos de forma
habitual, como las fibras vegetales (algodón, lino, mimbre) o el corcho.

Origen animal: Se obtienen a partir de animales; Por ejemplo, el cuero o la lana que
usamos en muchas prendas de vestir, en bolsos, zapatos, etc.

●Materiales artificiales: son aquellos fabricados por el hombre a partir de los


naturales. También reciben este nombre aquellos productos fabricados con varios
materiales que sean en su mayoría de origen natural, como por ejemplo el hormigón,
que está fabricado partir de arena(material natural), grava(material natural),
cemento(material artificial) y agua(material natural). Otros materiales artificiales son el
acero el papel.

●Materiales sintéticos: Están fabricados por el hombre a partir de materiales


artificiales. No se encuentran en la naturaleza ni ellos ni ninguno de los materiales que
lo componen. En general suelen ser derivados del petróleo y han representado para la
sociedad un fenomenal avance. Ejemplo: la baquelita, la urea ,la fibra, Polímeros y
vidrios

49) Desarrolle la clasificación de los materiales según sus funciones.


50) Detalle , defina y de ejemplos de cuales son los materiales PZT
(ingles), YAG, NI-TI, ITO, MR Fluids, Polymers gels, Zerodur, SuperAlloys
 PZT: Es una solución sólida sintetizada de titaniato de plomo con zinconato de
plomo y son las cerámicas piezoeléctricas más usadas por su temperatura
crítica, por su coeficiente piezoeléctrico y por su relativamente baja
temperatura de funcionamiento (200 °C).
Tiene la ventaja sobre otras cerámicas de que se puede fabricar a un precio muy bajo,
físicamente es fuerte y es químicamente inerte y además ha demostrado que tiene
más sensibilidad piezoeléctrica que otras cerámicas, lo que se comprueba
observando su coeficiente piezoeléctrico.
Las cerámicas piezoeléctricas pertenecen al grupo que da mayor flexibilidad de
formato y de propiedades, siendo ellas ampliamente utilizadas en la fabricación de
equipos industriales, específicamente en sistemas de limpieza, equipos de soldadura
por ultrasonido, para ensayos no destructivos y equipos para monitorear vibraciones.
 YAG: El granate de aluminio itrio ( YAG , Y 3 Al 5 O 12 ) es un
material cristalino sintético del grupo granate . También es una de las tres
fases del compuesto de itrio-aluminio, las otras dos son monoclínica de itrio
aluminio
Uso de los mayores usos es como Nd: YAG, un cristal que se utiliza como un medio
de láser para láseres de estado sólido. El neodimio dopante, triplemente ionizado, por
lo general sustituye a itrio en la estructura cristalina del itrio-aluminio-granate (YAG),
ya que son de tamaño similar. En general, el anfitrión es cristalino dopado con
neodimio torno al 1% por ciento atómico.
 NI-TI: Aleación de Niquel y Titanio es una de las aleaciones con memoria de
forma de mayor utilización hoy en día, posee propiedades de memoria de
forma y superelasticidad, debido a la transformación martensítica termoelástica
entre una fase austenítica y una fase martensítica. Estas propiedades hacen
que sea un material capaz de recuperar una forma predeterminada después
de haber sufrido una deformación macroscópica, y también pueda ser
deformado elásticamente hasta un 8-10%. Junto con estas propiedades
únicas, han sido demostrados un buen comportamiento a corrosión, una buena
biocompatibilidad (La biocompatibilidad describe las interacciones entre el
sistema biológico vivo y el material introducido en este sistema). Y una buena
citotoxicidad que hacen del NiTi un excelente candidato para aplicaciones
biomédicas.
 ITO: El óxido de indio y estaño (ITO, por sus siglas en inglés, Indium Tin
Oxide) es un compuesto químico constituido de óxido de estaño, un metal
común, y de óxido de indio, un metal raro. Se trata de un material
semiconductor tipo n perteneciente al grupo de los TCO (óxidos conductores
transparentes, por sus siglas en inglés)
El uso principal del ITO en la industria es el de crear electrodos en forma de películas
finas y transparentes en las pantallas de cristal líquido, que pueden ser de
tipo LCD, OLED, electroluminescentes o electrocromáticas, así como numerosas
pantallas táctiles. Además de sus propiedades altamente conductoras y su
transparencia en el espectro de la luz visible, el ITO posee un elevado índice de
adherencia al sustrato, una alta estabilidad térmica y puede ser depositado formando
motivos.2 Otras aplicaciones frecuentes del óxido de indio y estaño son la fabricación
de leds orgánicos y de células fotovoltaicas, así como el tratamiento de superficies
(para luchar contra las interferencias electromagnéticas o contra la electricidad
estática).
Sin embargo, debido a la escasez de indio, las dificultades de fabricación de las
láminas de ITO
 MR fluids: Los fluidos magnetorreológicos son fluidos cuyas propiedades
reológicas se ven alteradas por la presencia de un campo magnético. Su
viscosidad al aplicar un campo magnético se puede regular desde un fluido
poco viscoso hasta un estado similar a una masilla o lodo muy espeso, sin
modificar ni su forma ni su volumen. Estos fluidos son útiles en dispositivos
donde se requiera una disipación de energía controlada (como frenos o
amortiguadores), así como elementos de fijación en base a su variación de
viscosidad. Debido a su aplicabilidad y su capacidad para conseguir rápidas y
simples interfaces de respuesta entre sistemas electrónicos y
mecánicos, Gaiker-IK4 ha estudiado estos fluidos y ha desarrollado una
solución para el apelmazamiento por decantación del fluido cuando se
encuentra en reposo, simplificando el proceso de fabricación
Ploymer Gel: Un gel de polímero es un tipo de gel que consiste en una red de
polímero reticulado tridimensional que puede sufrir una deformación significativa. Esto
es posible porque estos geles son blandos y están llenos de un solvente como agua u
otro solvente líquido que imparte propiedades de deformación en varias formas y
tamaños. Estos geles pueden expandirse o contraerse hasta 1000 veces en volumen.
Los geles poliméricos también se conocen como hidrogel.
Los geles de polímero son materiales blandos y húmedos que tienen una red
reticulada elástica con espacios intersticiales que pueden contener un solvente
líquido, dándoles así una sensación húmeda. La red elástica reticulada también
imparte solidez ya que contiene un disolvente líquido.
Los tipos más comunes de geles de polímero utilizados en la industria son:
 Poli vinil alcohol (PVA)
 Ácido poli acrílico (PAA)
 Poli acrilonitrilo (PAN)
Estos geles encuentran aplicaciones en las siguientes industrias:
 Robótica (fabricación de músculos artificiales y actuadores robóticos)
 Fabricación química
 Petroquímicos
 Pinturas y recubrimientos
Los geles de polímero son fibras de gel de tamaño micro (una red elástica de fibra
reticulada) que pueden contraerse en milisegundos, mientras que las capas gruesas
de polímero requieren muchos minutos para reaccionar, generalmente de dos horas a
días.
 Zerodur: es un vidrio cerámico producido por Schott Glas en Mainz, Alemania.
Se diseñó para una expansión térmica de cero bajo temperatura ambiente.
Este material se utiliza con frecuencia para telescopios terrestres de alto
rendimiento. La figura muestra la expansión térmica lineal entre -150°C y
100°C. La muestra se midió dos veces a una tasa de calentamiento de 3 K/min
en una atmósfera de helio. Los CTE medidos entre 0°C y 50°C están en total
acuerdo con los valores indicados por la documentación técnica (los folletos de
Schott). (medición con DIL 402 C)

 Super Alloys: Las superaleaciones ofrecen una excelente resistencia


mecánica, además de brindar una gran resistencia a altas temperaturas,
estabilidad y una gran resistencia a la corrosión y la oxidación. Principalmente
es usado para el sector aeroespacial, así como válvulas bi-metálicas, por
donde circulan ácidos altamente corrosivos.
Las superaleaciones tienen una matriz austenítica y un elemento de superaleación de
base de aleación es generalmente níquel, cobalto o níquel-hierro
Otra característica importante de las superaleaciones es la resistencia a la fatiga, es
por ello que se usa en gran medida a la industria aeroespacial.
Las superaleaciones pueden ofrecer resistencia a altas temperaturas gracias a su
fortalecimiento de solución sólida. La oxidación y resistencia a la corrosión es
proporcionada por la formación de un recubrimiento de barrera térmica, que se forma
cuando el metal está expuesto al oxígeno y recubre el material.
También se utilizan en medios corrosivos en lugar de otros materiales metálicos (por
ejemplo) en lugar de acero inoxidable en ambientes de agua salada o ácido.
Gracias a su resistencia a las altas temperaturas se usa en las zonas mas calientes
de las turbinas de gas
51) Indique el uso del TITANIO, y sus propiedades.
Las propiedades del titanio, que son una combinación de gran resistencia, rigidez,
tenacidad, baja densidad y buena resistencia a la corrosión proporcionada por varias
aleaciones de titanio a muy baja y elevada temperatura, permiten un ahorro de peso
en estructuras aeroespaciales y otras aplicaciones de alta rendimiento.
El peso atómico del titanio es 47.88. El titanio es ligero, fuerte, resistente a la
corrosión y abundante en la naturaleza. El titanio y sus aleaciones poseen
resistencias a la tracción de 30.000 psi a 200.000 psi (210 a 1380 MPa), que son
equivalentes a las resistencias encontradas en la mayoría de las aleaciones de acero.
El titanio es un elemento de baja densidad (de aproximadamente el 60% de la
densidad del hierro) que puede ser fortalecido por aleación y tratamiento por
deformación. El Titanio es no magnético y tiene buenas propiedades de transferencia
de calor. Su coeficiente de expansión térmica es algo menor que el de los aceros y
menos de la mitad que el del aluminio.
Una de las propiedades útiles del titanio es su alto punto de fusión de 3135°F
(1725°C). Este punto de fusión está aproximadamente 400°F por encima del punto de
fusión del acero y aproximadamente 2000°F por encima del del aluminio.
El titanio no es un buen conductor de la electricidad. Si la conductividad del cobre se
considera que es 100%, el titanio tendría una conductividad de 3,1%. De esto se
deduce que el titanio no se utilizaría en aplicaciones donde una buena conductividad
sea un factor primordial. Para comparar, el acero inoxidable has a conductivity of 3.5%
and aluminum has a conductivity of 30%.
La resistencia eléctrica es la oposición que ofrece un material al flujo de electrones.
Dado que el titanio es un mal conductor, se deduce que opone una resistencia
razonable.

Los metales de transición, también llamados elementos de transición es el grupo al


que pertenece el titanio. En este grupo de elementos químicos al que pertenece el
titanio, se encuentran aquellos situados en la parte central de la tabla periódica,
concretamente en el bloque d. Entre las características que tiene el titanio, así como
las del resto de metales de tansición se encuentra la de incluir en su configuración
electrónica el orbital d, parcialmente lleno de electrones. Propiedades de este tipo de
metales, entre los que se encuentra el titanio son su elevada dureza, el tener puntos
de ebullición y fusión elevados y ser buenos conductores de la electricidad y el calor.
El estado del titanio en su forma natural es sólido. El titanio es un elmento químico de
aspecto plateado y pertenece al grupo de los metales de transición. El número
atómico del titanio es 22. El símbolo químico del titanio es Ti. El punto de fusión del
titanio es de 1941 grados Kelvin o de 1668,85 grados celsius o grados centígrados. El
punto de ebullición del titanio es de 3560 grados Kelvin o de 3287,85 grados celsius o
grados centígrados.
El titanio es un metal muy importante que fue descubierto en 1791. Si alguna vez te
has preguntado para qué sirve el titanio, a continuación tienes una lista de sus
posibles usos:
 Las aleaciones de titanio se utilizan en los aviones y también en helicópteros,
blindaje, buques de guerra, naves espaciales y misiles. Las aleaciones de
titanio no se desgastan fácilmente, son fuertes y resistentes a la corrosión por
lo que son perfectos para su uso en las aplicaciones anteriores.
 La mayoría de titanio se convierte en óxido de titanio. Este es el pigmento
blanco encontrado en el dentífrico, pintura, papel y algunos plásticos. El
cemento y las piedras preciosas también contienen óxido de titanio. Las cañas
de pescar y palos de golf también se hacen más fuertes mediante del uso de
óxido de titanio.
 Los intercambiadores de calor en las plantas de desalinización (que convierten
el agua de mar en agua potable) están hechos de titanio, ya que es resistente
a la corrosión en agua de mar.
 Los piercings corporales, generalmente se hacen de titanio. El titanio es
perfecto para esto ya que se puede colorear fácilmente y es inerte (no
reaccionará con otros elementos).
 Los instrumentos quirúrgicos, las sillas de ruedas y las muletas están hechas
de titanio para una alta resistencia y bajo peso.
 Los implantes dentales están hechos con titanio. Las personas con implantes
dentales de titanio aún puede ir en una máquina de resonancia magnética!
 Las bolas de la cadera y reemplazos articulares están hechos de titanio y que
pueden permanecer en el lugar durante unos 20 años.
 Muchas armas de fuego (pistolas) están hechas de titanio, ya que es un
material fuerte y ligero.
 El cuerpo de los ordenadores portátiles eestán hechos a menudo de titanio.
 El titanio se utiliza a veces en la construcción de edificios.
 Las parrillas de casco de fútbol americano, raquetas de tenis, cascos de
cricket y cuadros de bicicletas están hechos de titanio.
http://outletminero.org/titanio/ https://www.totalmateria.com/page.aspx?
ID=propiedadesdeltitanio&LN=ES
52) INDIQUE EL USO DEL GRAFENO , Y SUS PROPIEDADES
El grafeno es una forma alotrópica del carbono, es decir, una forma en la que se
presenta el carbono. Otras formas alotrópicas del carbono son el grafito o el diamante.
Es una sustancia cuya importancia en tecnología es cada vez mayor por lo que me
parece interesante comentar algo sobre sus propiedades y aplicaciones.
Está formado por anillos hexagonales de átomos de carbono, uno de los elementos
más importantes y abundantes en la naturaleza. Es sabido que el carbono es esencial
para la vida tal y como la conocemos y es también el componente de muchos
minerales y de muchos combustibles (petróleo, carbón, gases como el butano y el
propano, etc. El grafeno perfecto contendría únicamente anillos hexagonales aunque
en la realidad pueden aparecer anillos pentagonales y heptagonales que se
consideran irregularidades e imperfecciones en la estructura del grafeno. Esta
estructura es la base de otras sustancias grafíticas como los fullerenos, los nanotubos
de fibra de carbono o el propio grafito.
Según la IUPAC (International Union of Pure and Applied Chemistry) el término
grafeno debe ser utilizado cuándo se hable “de las reacciones, las relaciones
estructurales u otras propiedades de capas individuales” de carbono. Teniendo esto
cuenta no es correcto describir el grafeno como “capas de grafito” (el grafito implica 3
dimensiones mientras que el grafeno implica uniones de carbono en dos direcciones),
“hojas de carbono” y conceptos similares. Así el grafeno se puede definir como un
hidrocarburo aromático policíclico infinitamente alternante de anillos de seis átomos
de carbono, es decir, sería una molécula plana compuesta por átomos de carbono
que forman un patrón de anillos hexagonales.
Propiedades y características más destacadas del grafeno
• Alta conductividad términa.
• Alta conductividad eléctrica.
• Alta elasticidad (deformable).
• Alta dureza (resistencia a ser rayado).
• Alta resistencia. El grafeno es aproximadamente 200 veces más resistente que el
acero, similar a la resistencia del diamante, pero es muchísimo más ligero.
• Es más flexible que la fibra de carbono pero igual de ligero.
• La radiación ionizante no le afecta.
• Presenta un bajo efecto Joule (calentamiento al conducir electrones).
• Para una misma tarea el grafeno consume menos electricidad que el silicio.
• Es capaz de generar electricidad por exposición a la luz solar.
• El grafeno es un material prácticamente transparente.
• Es muy denso y no deja pasar al helio en forma gaseosa, sin embargo si deja pasar
al agua, la cual, encerrada en un recipiente de grafeno, muestra una velocidad de
evaporación similar a la que muestra en un recipiente abierto.
Aplicaciones más destacadas
• Destilación de etanol a temperatura ambiente para combustible y consumo humano.
• Detectores ultrasensibles de gas.
• Moduladores ópticos.
• Transistores de grafeno.
• Circuitos integrados más rápidos y eficientes.
• Electrodos transparentes.
• Dispositivos electrocrómicos.
• Células solares.
• Desalinazación.
• Aplicaciones antibacterianas.

53) Importante: Del libro de Carles Broto sobre patologías, desarrolle un


resumen sobre Lesiones físicas, mecánicas y químicas.
Las lesiones son las manifestaciones de un problema constructivo. Es de gran
importancia conocer la tipología, porque de su correcta identificación depende la
elección acertada del tratamiento.
La lesión puede ser primaria, si aparece en primer lugar, o secundaria, cuando
aparecen como consecuencia de la primaria. A su vez se pueden en 3 grandes grupos
en función del carácter y la tipología: físicas, mecánicas y químicas.
Lesiones físicas: Se producen a causa de fenómenos físicos como heladas,
condensaciones, etc, y generalmente su evolución dependerá de ellos. Las causas
mas comunes son:
 Humedad: porcentaje de agua mayor al considerado normal en un material o
elemento constructivo. Podemos distinguir 5 tipos: de obra, capilar, de
filtración, accidental y de condensación.
 Erosión (atmosférica): la erosión es la transformación total o parcial de la
superficie de un material. Al ser atmosférica se trata de aquella producida por
la acción física de agentes atmosféricos, sobre todo por la meteorización.
 Suciedad: depósito de las partículas en suspensión sobre la superficie (puede
llegar a penetrar los poros). El ensuciamiento puede ser por depósito o por
lavado diferencial.

Lesiones mecánicas: Aquellas en las que predomina un factor mecánico que


provoca movimientos, desgaste, aberturas o separaciones del material o elemento
constructivo. Las podemos dividir en:
 Deformaciones: cualquier tipo de variación en la forma de un material,
consecuencia de esfuerzos mecánicos. Diferenciamos 4 sub-grupos:
1. Fechas: son la consecuencia directa de la flexion.
2. Pandeos: consecuencia de un esfuerzo de compresión que sobrepasa la
capacidad de un elemento vertical.
3. Desplomes: consecuencia de empujes horizontales.
4. Alabeos: consecuencia de la rotación, generalmente producidos por
esfuerzos horizontales.
 Grietas: aberturas longitudinales que afectan a todo el espesor de un elemento
constructivo, estructural o de cerramiento. Pueden ser producidas por:
 Exceso de carga: afectan a los elementos estructurales o de
cerramiento, para mantener la seguridad de la construcción se requiere
generalmente de un refuerzo.
 Dilataciones y contracciones higrotermicas: afectan a todos los
elementos de cerramiento de fachada y cubierta, y a las estructuras en
caso de que no se prevean las juntas de dilatación.
 Fisuras: aberturas longitudinales que afectan a la superficie o al acabado de
un elemento constructivo.
 Reflejo de soporte: es la fisura que se produce sobre el soporte
cuando se da una discontinuidad constructiva.
 Inherente al acabado: se produce por movimientos de dilatación-
contraccion, en el caso de chapados y alicatados, y por retracción en
el caso de morteros.
 Desprendimiento: separación entre un material de acabado y el soporte al que
esta aplicado por falta de adherencia. Generalmente se trata de una lesión
secundaria, originada por humedades, grietas, etc.
 Erosiones mecánicas: perdidas de material superficial debido a esfuerzos
mecánicos como golpes o rozaduras.
Lesiones químicas: se producen a partir de un proceso patológico de carácter
químico, su origen suele ser por presencia de sales, acidos o álcalis que
reaccionan provocando descomposiciones.
 Eflorescencias: Los materiales contienen sales solubles y estas son
arrastradas por el agua hacia el exterior durante su evaporación, y
cristalizan en la superficie del material. Pueden ser:
 Cristalizadas bajo la superficie del material (criptoflorescencias),
que a la larga acaban desprendiéndose.
 Sales cristalizadas que no proceden del material, sino de otros
materiales limitantes o adyacentes.
 Oxidaciones y corrosiones: conjunto de transformaciones moleculares que
tiene como consecuencia la pérdida de material en la superficie de metales
como el hierro y el acero.
 Oxidación: transformación de los metales en oxido al entrar en
contacto con el oxígeno.
 Corrosión: pérdida progresiva de partículas de la superficie del
metal.
 Organismos: segregan sustancias que alteran la estructura química del
material, aunque también pueden afectar su estructura física.
 Animales: Insectos que se alojan en el interior del material y se
alimentan de este, también se puede tratar de animales de peso
como aves o mamíferos pequeño que causan lesiones
principalmente erosivas.
 Plantas: de porte que dañan con sus raíces y su peso. Las
microscópicas como mohos, que desprenden sustancias químicas
provocando cambios de olor, color y a veces erosiones, y hongos
que atacan generalmente a la madera pudiendo destruirla por
completo.

Erosiones: La reacción química de los componentes de un material petreo con otras


sustancias produce transformaciones moleculares en la superficie.

54) Que es el AEROGEL, que es el aerogel de grafeno y que es el aerogel


de sílice.
El Aerogel, también conocido como "humo blanco" es un término muy amplio
utilizado para hablar de un extraordinario grupo de materiales que se han utilizado
desde la década de 1960 en los viajes espaciales, pero que ahora están encontrando
múltiples usos gracias a sus propiedades. Por ejemplo, es el material sólido mas
ligero que existe hoy en día (algunos solo 3 veces más pesados que el aire). El
aerogel en su forma sólida tiene una textura similar a la de poliestireno espumado (el
famoso corcho blanco de bolitas) y solided parecida a la del vidrio.
La palabra aerogel hace referencia a un tipo de estructura sintética (fabricada por
el hombre) de la materia, una estructura de espuma sólida compuesta de una red de
nanoestructuras interconectados y que tiene una porosidad de no menos de 50%. Una
espuma mesoporosa, ramificada e interconectada, eso es un aerogel.

 Mesoporosa se refiere a un material con muchos poros de muy pequeño diámetro,


exactamente que contiene poros que van de 2 a 50 nm (nanómetros) de diámetro.
 Básicamente un aerogel es un montón de burbujas que forman un bloque con la
apariencia de una gelatina. Burbujas rellenas primero de líquido y luego de aire.

 Los dos tipos más comunes de aerogel se derivan del silicio y del carbono.
Propiedades del Aerogel

 - El material de menor densidad (más ligero), por lo general una 15 veces más
pesado que el aire, aunque algunos pueden llegar a solo 3 veces más.

 - Gran aislante térmico y acústico. Es capaz de proteger 39 veces más que la mejor
fibra de vidrio. De hecho su uso industrial más difundido es el empleo como aislante
térmico en las ventanas de los edificios para evitar la pérdida de calor o frío.

 - Gran resistencia a altas y bajas temperaturas. Puede colocarse para proteger


incluso de las llamas.

 - Material muy transparente.

 - Bajo índice de refracción, el más bajo para un sólido. Esta propiedad hace que no
se distorsionen las cosas al verlas a través del aerogel.

 - La velocidad del sonido a través de él es muy baja, 100 m/s.

 - Ultra resistente. No debemos confundirnos con su apariencia y su fragilidad. Este


material es capaz de soportar mil veces su propio peso, pero ojo un pequeño golpe lo
rompería ya que es muy frágil.

 - El aerogel de tipo translúcido, permite la entrada de la radiación solar pero impide el
escape de calor, como en el caso de los cristales.

 - Gran capacidad de absorber líquidos, ya que comparado con los materiales


actuales, que solo pueden absorber 10 veces su propio peso, este material puede
absorber 900 veces su propio peso. Puede ser un material muy bueno para el
tratamiento de los vertidos de petróleo en el mar.

 La peor propiedad del aerogel es que es un material muy frágil, es decir se rompe al
darle un golpe muy fácilmente. El aerogel al golpearlo se convierte prácticamente en
arena. Ya existen algunas soluciones a este problema. Una de ellas es echar el
aerogel líquido alrededor de una manta de fibra de poliéster. Esta manta sirve de
esqueleto del aerogel cuando solidifica y lo hace menos frágil. Esto se llama "tela de
aerogel".

Aerogel de grafeno
El aerogel de grafeno es el material más liviano que el ser humano ha podido crear.
Sin duda, las aplicaciones físicas que podrá tener serán muchas, ya que, incluso
colocado sobre los pétalos de una flor, es incapaz de dañarla por su bajo, bajísimo
peso.
El aerogel de grafeno es extremadamente elasico y presenta una gran capacidad de
absorción de aceites. Puede absorber hasta 900 veces su propio peso.

Aero gel de sílice


El Aero gel de sílice es super aislante, super ligero e hidrofóbico (no miscible con el
agua).

55) Importante: Del libro de Carles Broto sobre patologias: Desarrolle


sobre reparacion , restauracion, rehabilitacion y ensayos sobre los
elementos constructivos
 Reparación: la reparación es un conjunto de actuaciones, como demoliciones,
saneamientos y aplicaciones de nuevos materiales destinado a recuperar el
estado constructivo y devolver a la unidad lesionada su funcionalidad
arquitectónica original. Solo comenzaremos la reparación una vez descripto el
proceso patológico, con su origen o causa, y la evolución de la lesión.
Si el proceso patológico se ha descubierto a tiempo, bastara la simple aplicación de
productos con una misión protectora, pero en algunas ocasiones la reparación
implicara la demolición o sustitución total o parcial de la unidad constructiva en la que
se encuentra el foco de la lesión.
En cualquier caso, la reparación se compone siempre de dos fases claramente
diferenciadas: primero se debe actuar sobre la causa o causas origen del proceso, y
una vez detectadas y solucionadas estas, se actuará sobre las lesiones.
Para que todas estas cuestiones queden cubiertas es necesario seguir un proceso
ordenado y progresivo que consta de tres etapas:
1. La primera etapa de información previa, consistirá en una toma de datos
para conseguir una definición física lo más desarrollada posible del
elemento a reparar. Nos va a permitir conseguir una visión general para
evaluar el estado de la unidad dañada.
2. La segunda etapa de reconocimiento va a establecer los daños existentes,
ubicación, forma, cuantificación, etc.
3. La tercera etapa es la de diagnóstico. Mediante el análisis de los datos
obtenidos se tomara la decisión puramente técnica del nivel de actuación
que se recomienda llevar a cabo.

Restauración: cuando la reparación se centra en un elemento concreto o en un


objeto de decoración hablamos de restauración.
Se debe saber que, para la restauración de un edificio, se debe tomar a este como
una entidad individual, es decir se deberá conservar el aspecto arquitectónico,
histórico y artístico del mismo, lo que permitirá la transmisión de sus valores a la
posteridad.
Es por ello que, antes de intervenir en un edificio histórico, debemos tener siempre
presente cinco puntos básicos:
1. La intervención debe ser la mínima posible.
2. Debe respetar la antigüedad de los elementos constructivos.
3. Diferenciar lo existente que a un se encuentra en buen estado de las
zonas degradadas y no aplicar reglas generales, sino especificadas para
cada intervención.
4. Hay que tener en cuenta que la restauración no implica conservar solo los
aspectos formales del edificio, sino que se extiende a la conservación
sustancial del conjunto arquitectónico y todos los elementos que lo
componen para definir esas características.
5. Para esta conservación es necesario la realización de un proyecto de
restauración que deberá ser acompañado de un estudio exhaustivo sobre
el conjunto arquitectónico. Este proyecto se basara en una completa
observación gráfica y fotográfica.
Rehabilitación:
La rehabilitación comprende una serie de posibles fases:
 Un proyecto arquitectónico para nuevos usos
 Un estudio patológico con diagnósticos parciales
 Reparaciones de las diferentes unidades constructivas dañadas, y una
restauración de los distintos elementos y objetos individuales.
Tanto en la reparación como en la restauración y rehabilitación se trabajará siempre
con un anteproyecto de actuación que debe ser profundo y minucioso y en el cual
debe realizarse un estudio de cada uno de los elementos objeto de la investigación.
Es indispensable incluir una investigación histórica y técnica, una diagnosis de daños
y sus causas, y un proyecto de investigación general

57) Que diferencia hay entre Ensayos y Experimentación; cuantos tipos de


Ensayos consideramos que hay, explique cada uno de ellos (científicos, de
control y tecnológicos).
Un experimento es un procedimiento mediante el cual se trata de comprobar
(confirmar o verificar) una o varias hipótesis relacionadas con un determinado
fenómeno, mediante la manipulación y el estudio de las correlaciones de la/s variables
que presumiblemente son su causa. En un experimento se consideran todas las
variables relevantes que intervienen en el fenómeno, mediante la manipulación de las
que presumiblemente son su causa, el control de las variables extrañas y la
aleatorización de las restantes. Cuando realizamos experimentos es importante la
precisión y la exactitud.
Los ensayos sirven para determinar propiedades del material, ya sea resistencia,
ductilidad, tenacidad, etc. Determinar leyes de comportamiento del material bajo
distintas situaciones para diseño. Poder seleccionar materiales. Modificar materiales
en producción para cumplir propiedades deseadas, etc.
De los resultados obtenidos se puede obtener información cualitativa, que ayuda al
entendimiento de los materiales, describen la estructura y comportamiento del
material en efecto de distintas variables sobre una propiedad dependiente y permiten
determinar las variables que conviene controlar para cumplir el objetivo. En los
ensayos no es importante una gran precisión y exactitud.
Tipos de ensayos:

 Ensayos tecnológicos:
Los ensayos tecnológicos son en general, procesos instrumentales ejecutados
mediante metodologías arbitrariamente aceptadas como referentes o
desarrollados “ad hoc”, que trata de poner de manifiesto, cuantificándolas,
diversas características asociadas al comportamiento en la fabricación o en el
servicio, de los materiales industriales. Todo ello realizado de mutuo acuerdo
entre el proveedor y el cliente, con arreglo a una normativa general o un
procedimiento particular de ensayo y evaluación.
 Ensayos de control:
Los ensayos de control consisten en el establecimiento de sistemas que nos
permitan medir los resultados actuales y pasados en relación con los
esperados, con el fin de saber si se ha obtenido lo que se esperaba, corregir,
mejorar y formular nuevos planes. Comprende por lo mismo tres etapas.
Establecimiento de normas
Operación de controles
Interpretación de resultados
 Ensayos científicos:
Un ensayo científico es un intento por acercarnos al entorno de un problema
de investigación, generar una explicación de cómo el que escribe analiza el
mundo en relación con la temática propuesta

58) QUE SON LOS CONCEPTOS DE EXACTITUD Y PRECISIÓN


● Exactitud: Se refiere a cuán cerca del valor real se encuentra el valor medido.
Relacionado entre la diferencia del valor real y el valor obtenido
● Precisión: Se refiere a la dispersión del conjunto de valores obtenidos de
mediciones repetidas de una magnitud. Relacionado con la variabilidad de los
resultados obtenidos
59) Qué es el concepto de sustentabilidad.
La sustentabilidad significa la existencia de condiciones económicas, ecológicas,
sociales y políticas que determinen su funcionamiento de forma armónica a lo largo
del tiempo y del espacio. Consiste en satisfacer las necesidades de la actual
generación sin sacrificar la capacidad de futuras generaciones de satisfacer sus
propias necesidades. Es un término ligado a la acción del hombre en relación a su
entorno, se refiere al equilibrio que existe en una especie basándose en su entorno y
todos los factores o recursos que tiene para hacer posible el funcionamiento de todas
sus partes, sin necesidad de dañar o sacrificar las capacidades de otro entorno.
El concepto de construcción sustentable refiere a las diferentes estrategias destinadas
a minimizar el impacto ambiental de las obras de construcción en todas las fases del
ciclo de la vida de un edificio. Esto incluye las etapas de planificación, diseño,
construcción, renovación, utilización y eliminación o reconstrucción.
No se trata de un nuevo estilo arquitectónico, sino de aplicar una serie de criterios,
como la correcta orientación de los ambientes, la elección de los materiales, el
tamaño de las aberturas y su protección del sol. Estos criterios se relacionan con el
consumo de energía, el uso de fuentes de energía renovables y de materiales y
productos de construcción más amigables con el ambiente. También se vinculan con
aspectos como la gestión de residuos y de agua, así como con otros factores
involucrados en los impactos ambientales de la construcción.
Fuentes:
 Apuntes de clase teórica
 http://www.buenosaires.gob.ar/areas/med_ambiente/apra/des_sust/prod_sust/
construccion_sustentable.php?menu_id=32364
http://es.wikipedia.org/wiki/Sostenibilidad
60) Como se construye una norma, que son Normas Prescritivas,
Prestacionales y la mezcla de ambas…
Para constituir las normas se forma una comisión donde participan representantes de
las industrias, pensantes, científicos y usuarios. Estos constituyen un ante proyecto,
por lo general basándose en normas rigentes modificadas o actualizadas y/o en
normas extranjeras adaptadas. Dicho ante proyecto es introducido a la sociedad para
ser discutido, implementado y evaluado por distintos protagonistas (universitarios,
fabricantes, usuario en general, etc.) quienes proponen las correcciones que creen
necesarias. El ante proyecto es retroalimentado y vuelve a la comisión primaria, quien
lo presenta como proyecto para ser legislado ya sea a nivel municipal, provincial o
nacional.
● Normas Prescriptivas: Son normas para el “buen construir”, normas que
dan las cantidades mínimas necesarias para que una construcción sea apta, son
normas de características cualitativas.
● Normas Prestacionales: Normas del tipo cuantitativas, basadas en formulas
y ecuaciones que consideran todos las características del material a usar, del
lugar a construir, del tiempo de vida útil, entre otras.
Todos los elementos de la norma están referenciados a información estadística
(ecuaciones, formulas, datos estadísticos), es necesario verificar que los edificios
construidos con iguales características siguen funcionales en el tiempo.
Normas Prescriptivas con elementos prestacionales: Combinación de ambas normas
anteriores

61) Como debe ser el agregado para ser utilizado en el hormigón.


Debe ser:

 Homogéneo.
 Carecer de grietas.
 Ser resistente a las cargas que debe soportar.
 Inalterables por agentes atmosféricos, y en el caso de ser alterable, conocer
cómo será alterado y sus efectos.
 No deben ser absorbentes o permeables en proporciones mayores al 4,5%.
 Adherente al mortero.
 Resistente al fuego.
 Inertes, o en el caso de ser activos que posean componentes positivos para el
hormigón.
 Ser limpios, sin cubiertas que puedan afectar la unión con el cemento, o
partículas poco solidas o impurezas que lo afecten.

62) COMO CLASIFICA LOS AGREGADOS, INDIQUE LAS DISTINTAS CLASES DE


CLASIFICACIÓN DE LOS AGREGADOS

La gran variedad de material granular que se incorpora en el
hormigón hace que sea muy difícil la
expresión de una definición porcompleto satisfactoria de
“Agregado”. Por lo que aquí se
dan variasdefiniciones según tres clasificaciones: por su procedencia, por su  tamaño  
y por  su gravedad específica.

1. Por su Procedencia
 Agregados naturales.- Formados por procesos geológicos.
 Agregados artificiales.- Provienen de un proceso de transformación de los
agregados naturales,  dichos  agregados  artificiales  son  productos 
secundarios.  Algunos  de  estos agregados son los que constituyen la escoria
siderurgica, la arcilla horneada, el hormigón reciclado, piedra triturada
(chancada), etc.
·   Piedra triturada.- Producto que resulta de la trituración artificial de rocas,
piedra boleada o pedruscos grandes, del cual todas las caras poseen
aristas bien definidas, resultado de la operación de trituración.
·   Escoria  siderúrgica.- Residuo  mineral  no  metálico,  que  consta  en 
esencia  de silicatos y aluminosilicatos de calcio y otras bases, y que se
produce simultáneamente con la obtención del hierro.
 
2. Por su Tamaño
 Agregado grueso.- Aquella porción de un agregado que es retenida por el
tamiz No. 4 (de 4.75 mm).
El agregado grueso utilizado en nuestro medio es denominado “Grava”, que resulta de
la desintegración y abrasión naturales de la roca o procede de la trituración de esta.
 Agregado fino.-  Aquella porción de un agregado que pasa por el tamiz No. 4
(de 4.75 mm) y es retenida de modo predominante por el No. 200 (de 75 µm).
El  agregado  fino  utilizado  en  nuestro  medio  se  denomina  “Arena”,  este  resulta 
de  la desintegración y abrasión naturales de la roca o procede de la trituración de
esta.

 3. Por su Gravedad Específica

*Ligeros, Gs < 2.5. Los agregados ligeros, como la arcilla esquistosa y la expandida,
la escoria expandida, la Vermiculita, la Perlita, la Piedra Pómez y las Cenizas, se
utilizan para producir hormigón aislante, para unidades de mampostería o estructural
ligero que pesa entre 400 y 2000 kg/m3.

*Normales, 2.5 < Gs  < 2.75. Los materiales principales que se usan en el hormigón
de peso normal, por lo común de 2300 a 2500 kg/m3, incluyen las arenas y gravas,
roca triturada y escoria siderurgica. Las rocas trituradas de uso más común son el
Granito, Basalto, Arenisca, Piedra Caliza y Cuarcita.

*Pesados, Gs > 2.75. Los agregados pesados, como la Magnetita, la Barita o el Hierro
de desecho, se usan para producir hormigón de 2900 a 3500 kg/m3, utilizado para
blindaje contra la radiación y para contrapesos de hormigón.
La tabla 2.1 da los valores promedio para las propiedades físicas de los tipos
principales de rocas.

La EHE limita estos valores a:

.
63) Que características tienen los agregados de hormigones reciclados,
donde los utilizaría y por qué.

En nuestro país, en referencia a la composición de los residuos de la construcción, el


31% está constituido por residuos de hormigón, y aproximadamente el 48%
corresponde a escombros de mampostería.
A simple vista, los Agregados Reciclados (AR) presentan características diferentes a
las de los agregados naturales. En el caso particular de los AR obtenidos de la
trituración de hormigones de desecho, poseen una superficie más porosa debido al
mortero y/o pasta de cemento proveniente del hormigón original que forma parte de
los mismos. Dicho mortero de cemento no siempre se encuentra adherido a las
partículas de agregado natural, hecho que da lugar a la existencia de tres tipos
diferentes de partículas que pueden formar parte de los AR. Así, los Agregados
Gruesos Reciclados podrán estar constituidos por partículas formadas enteramente
de roca original, otras en las cuales el mortero se encuentra adherido a la roca o bien
constituyendo partículas por sí solas.

La fracción fina contiene principalmente pasta de cemento hidratada y yeso, siendo


inapropiada para la elaboración de mezclas de hormigón fresco. El agregado fino
proveniente de una demolición parece no tener un efecto importante en la resistencia
a compresión del hormigón nuevo, pero si reducir la trabajabilidad.
Sin embargo, la fracción gruesa aunque se encuentre cubierta de pasta ha sido
utilizada satisfactoriamente en varios estudios de laboratorio y de obra. De los
resultados obtenidos surge que la presencia del mortero proveniente del hormigón
original, como parte constituyente de los agregados gruesos reciclados, modifica las
propiedades de los mismos con relación a la de los agregados naturales. La
diferencia más notable en las propiedades físicas del agregado de hormigón reciclado
es su mayor absorción de agua, la cual puede deberse a la absorción que realiza la
pasta de cemento adherida a las partículas. Una revisión de varios estudios indica
que, comparando con hormigones conteniendo agregados naturales, el hormigón con
agregados reciclados tienen al menos 2/3 de la resistencia a compresión y módulo de
elasticidad. La resistencia a flexión, en algunos casos, puede llegar a ser un 20 %
menor. La trabajabilidad y la durabilidad son satisfactorias. Sin embargo, algunas
evidencias muestran que cuando el hormigón falla, la adherencia del mortero al
agregado grueso reciclado es lo que constituye la unión más débil.
Si bien en la actualidad estos agregados reciclados se emplean en la elaboración de
hormigones destinados a rellenos, contrapisos y cimientos, con mínimas exigencias
de desempeño. Los resultados indican que, si bien no es posible obtener con estos
residuos hormigones para uso estructural, existen oportunidades para su
aprovechamiento, en la fabricación de elementos constructivos tales como bloques de
hormigón para mampostería y bloques para forjados. En estas aplicaciones su uso
puede resultar competitivo.

Fuentes:

 Apuntes Cátedra “Tecnología del Hormigón” UNIDAD 5 - Universidad


Tecnológica Nacional – Facultad Regional Santa Fe - Ing. María Fernanda
Carrasco.
 HORMIGONES RECICLADOS: CARACTERIZACION DE LOS AGREGADOS
GRUESOS RECICLADOS - Claudio Javier Zega - Director: Angel A. Di Maio -
Tesis presentada para el grado de: MAGISTER - Departamento de Ingeniería
Civil, Facultad de Ingeniería, U.N.C.P.B.A.
 ESTUDIO DE HORMIGONES ELABORADOS CON RESIDUOS DE
LADRILLERÍAS Y DE DEMOLICIÓN – Investigadores: M. Suarez, C. Defagot,
M. F. Carrasco, A. Marcipar, R. Miretti, H. Saus. - Centro de Investigación y
Desarrollo para la Construcción y la Vivienda (CECOVI) - Universidad
Tecnológica Nacional - Facultad Regional Santa Fe

64 ) Desarrolle sobre Curva de Gauss, y su aplicación en ensayos a la


compresión de probetas cilíndricas de hormigón…

Está demostrado con muchas mediciones de series de ensayos, pertenecientes a


diferentes poblaciones que, cuando la producción de hormigón se puede considerar
“estable”, el histograma de frecuencias o distribución de frecuencias de las
resistencias del hormigón se ajusta muy bien y puede ser descripto por el Modelo
estadístico de Gauss conocido como curva de Gauss, que responde a la siguiente
expresión:
2
−( x−μ )
1 [

2
]
f ( x )=N ( μ , σ )= .e
σ √2 π

Siendo:
- x: Los valores que pueden tomar los individuos de la población, que se distribuyen
en forma continua según la función f(x), llamada función de densidad o distribución.
- μ: La media de la población.
- σ: El desvió estándar de la población.
La curva de Gauss tiene la forma de una campana. Sus valores extremos tienden en
forma asintótica al eje de las abscisas. Pero no lo cortan. Integrando la curva de
Gauss entre -∞ y un determinado valor xi podemos conocer la cantidad de individuos
de valores menores que xi.
Aplicación a ensayo
La resistencia a la compresión del hormigón normalmente se la cuantifica a los 28
días de fundido el concreto, aunque en estructuras especiales como túneles y presas,
o cuando se emplean cementos especiales, pueden especificarse tiempos menores o
mayores a esos 28 días. En túneles es bastante frecuente utilizar la resistencia a los 7
días o menos, mientras en presas se suele utilizar como referencia la resistencia a los
56 días o más. La resistencia del hormigón se determina en muestras cilíndricas
estandarizadas de 15 cm de diámetro y 30 cm de altura, llevadas hasta la rotura
mediante cargas incrementales relativamente rápidas.
La resistencia característica a la compresión de un hormigón (f'c), utilizada en diseño
estructural, se mide en términos probabilísticos, definiéndose que solamente un
pequeño porcentaje de las muestras (normalmente el 5%) puedan tener resistencias
inferiores a la especificada, lo que da lugar a que la resistencia media de las
muestras(fm) siempre sea mayor que la resistencia característica. Las probetas
cilíndricas de 15x30 cm. son las que se utilizan para determinar la resistencia a
compresión del hormigón. Para que ellas puedan garantizar su resistencia, deben ser
confeccionadas, curadas y ensayadas siguiendo estrictamente lo determinado en las
Normas. Los valores de resistencia resultantes de los ensayos, no tienen mucho
significado si la toma de muestras, confección de las probetas, protección, curado,
preparación de las bases y el ensayo a compresión, se hacen apartándose de lo
especificado en las Normas IRAM respectivas. Es difícil probar cuándo se han
producido deficiencias en la preparación de las probetas cilíndricas. Sin embargo, hay
unos pocos detalles que pueden ayudar al operador que ha fabricado a conciencia un
hormigón de buena calidad, a reivindicar la misma.

Estos detalles son:


Si se asume una distribución normalizada (campana de Gauss) de los ensayos de
rotura de cilindros de hormigón, la resistencia característica puede calcularse a partir
de la resistencia media y la desviación estándar (S), mediante la siguiente expresión:
f'c = fm - 1.25 * S
La resistencia a la compresión de hormigones normales (210 - 280 Kg/cm2) y de
mediana resistencia (350-420 Kg/cm2) está dominada por la relación agua/cemento (a
menor relación agua/cemento mayor resistencia) y por el nivel de compactación (a
mayor compactación mayor resistencia), pero también son factores importantes la
cantidad de cemento (a mayor cantidad de cemento mayor resistencia) y la
granulometría de los agregados (mejores granulometrías dan lugar a mayores
resistencias).
En hormigones de alta resistencia (f’c> 420 Kg/cm2), a más de los factores antes
mencionados, tiene especial importancia la resistencia del material constituyente de
los agregados (roca de origen), pues este parámetro impone un tope máximo a la
compresión.

65) Desarrolle la curva de Gauss relacionado con el diseño del hormigón,


memorizar sus ecuaciones, y saber desarrollar un caso.

Cuando se debe construir una estructura proyectada para una f ' c (resistencia
especificada) dada, el Reglamento CIRSOC 201-2005 indica que la mezcla de
hormigón a utilizar en esa estructura debe dosificarse con una resistencia media f ' cr ,
que resulta de las expresiones (1) a (4), según el Modo de Control a aplicar en la
obra. Debe quedar claro que f ' cr es la resistencia que se obtiene es la resistencia que
se obtiene en laboratorio, como promedio de los resultados de las probetas
moldeadas con el pastón ajustado durante la dosificación de la mezcla que luego se
usará en la obra.
La resistencia de diseño de la mezcla de hormigón que se utilizará en obra, es la
resistencia media de rotura a compresión para la cual se dosifica dicha mezcla. La
resistencia media de las probetas moldeadas con la mezcla en los ensayos de prueba
debe ser igual o mayor que la resistencia de diseño de la mezcla calculada de
acuerdo con:
Modos de Control
Modo de Control 1:
La resistencia de diseño de la mezcla debe ser mayor que los valores que resulten de
aplicar las siguientes ecuaciones:
f ' cr = f ' c + 1,34 Sn (1)

f ' cr = f ' c + 2,33 Sn – 3,5 (2)

Modo de Control 2:
La resistencia de diseño de la mezcla debe ser mayor que el valor que resulte de
aplicar las siguientes expresiones:
f ' cr = ( f ' c + 5¿ + 1,34 Sn (3)

f ' cr = f ' c + 2,33 Sn (4)

Siendo:
f ' c: Resistencia especificada a la compresión del hormigón, en MPa

f ' cr : Resistencia de diseño de la mezcla, en MPa

Sn: Desviación estándar, en MPa

Fuentes:
Giovambattista, Alberto. Hormigón. Editorial INTI. Argentina. 2011
66) DESARROLLE LA CURVA DE GAUSS SOBRE LA ACEPTACIÓN Y
CONFORMIDAD DEL HORMIGÓN EN OBRA, MEMORIZAR SUS ECUACIONES Y
SABER DESARROLLAR UN CASO.

La conformidad de la resistencia del hormigón colocado en una parte o en toda la


estructura se determina mediante ensayos de probetas moldeadas con muestras de
hormigón extraídas a pie de obra y realizados a la edad de diseño.
Se considera como resultado de un ensayo (f’ci) al valor que se obtiene como
promedio de las resistencias de dos o más probetas moldeadas de la misma muestra
y ensayadas a la misma edad. Se deberá cumplir que la diferencia entre las
resistencias extremas del grupo que constituye cada ensayo, sea menor del quince
por ciento (15 %) de la resistencia media de las probetas que constituyen el grupo. Si
dicho valor resultara mayor, se rechazará el ensayo correspondiente.
Los elementos estructurales de igual f’c se agrupan en conjuntos sucesivos
denominados lotes. La conformidad de la resistencia se determinara para cada lote.
El número de muestras por lote debe ser igual o mayor que cinco. Cuando el lote
comprende dos niveles o plantas de edificio, el número mínimo es de tres muestras
por planta, con lo cual resultan 6 ó más muestras por ese lote del edificio.
En cada muestra se realizará como mínimo un ensayo (dos probetas) a la edad de
diseño.
Modo de Control 1:
Se considera que el hormigón evaluado posee la resistencia especificada cuando se
cumplen las siguientes condiciones:
a) La resistencia media móvil de todas las series posibles de tres ensayos
consecutivos cualquiera es igual o mayor a la resistencia especificada.
f’cm3 ≥ f’c
b) El resultado de cada uno de los ensayos es igual o mayor que la resistencia
especificada menos 3,5 MPa.
f’ci ≥ f’c – 3.5 MPa
Modo de Control 2:
Se aplica cuando se desconoce las condiciones de operación de la planta
elaboradora.
En este caso se considerara que el hormigón evaluado posee la resistencia
especificada si se cumplen las dos condiciones siguientes:
a) La resistencia media móvil de todas las series posibles de tres ensayos
consecutivos, correspondientes al hormigón evaluado, es igual o mayor que la
resistencia especificada más 5 MPa.
f’cm3 ≥ f’c + 5 MPa
b) El resultado de cada uno de los ensayos será igual o mayor que la resistencia
especificada:
f’ci ≥ f’c

67) Desarrolle los casos cuando no se conoce la desviación standart.


Cuando no se cuente con registros para determinar la desviación estándar, el
hormigón se debe proyectar adoptando la resistencia media de rotura a
compresión dada en la Tabla 5.5.
Tabla 5.5. Resistencia de diseño de la mezcla cuando no se conoce la
desviación estándar para hormigones sin armar y armados

Resistencia especificada Resistencia de diseño de


(f’c) la mezcla
(f’cr)
MPa MPa
Igual o menor que 20 f’c + 7,0
Mayor que 20 y menor que 35 f’c + 8,5
Mayor que 35 f’c + 10,0

5.2.2.6. Durante la construcción de la obra, y a medida que se disponga de resultados


de ensayos, se podrá determinar su desviación estándar y con ese valor reajustar la
mezcla.
El valor a adoptar en ningún caso debe ser menor que 2,0 MPa.
5.2.3. Desviación estándar
5.2.3.1. La desviación estándar es una medida estadística de la dispersión de los
resultados de los ensayos que representan a un determinado hormigón.

5.2.3.2. Cuando una planta elaboradora posea registros de su producción se debe


calcular la desviación estándar a aplicar en los hormigones a producir. Los resultados
de ensayo que se utilicen para calcular la desviación estándar deben cumplir los
siguientes requisitos:
a) los resultados de ensayo deben pertenecer a una misma mezcla.
b) los materiales y las condiciones de elaboración, deben ser similares a los del
hormigón a producir.
c) los procedimientos de control de producción realizados deben ser igual de rigurosos
que los del hormigón a producir y se debe utilizar el mismo tamaño de probeta del
ensayo de resistencia.
d) los cambios en los materiales y en las proporciones de la mezcla, que se hayan
producidos durante el período de tiempo al que corresponden los registros de
ensayos, deben ser iguales o más restringidos que aquellos esperados para la obra.
e) los resultados deben pertenecer a hormigones cuya resistencia esté dentro de un
intervalo de ± 10 MPa respecto de la resistencia especificada para el Proyecto a
construir.
f) se debe disponer de treinta (30) o más resultados de ensayos consecutivos o en su
defecto de al menos dos grupos de ensayos consecutivos que totalicen un mínimo de
30 ensayos, donde cada grupo no podrá tener menos de 10 ensayos.
5.2.3.3. Cuando se disponga de treinta (30) o más resultados de ensayos
consecutivos que conforman un (1) único grupo, la desviación estándar se debe
determinar aplicando la siguiente fórmula:
(X i −X m )2
Sn=
√ (n−1)
Siendo:
sn la desviación estándar
Xi el resultado de un ensayo.
X el promedio de (n) resultados de ensayos.
n el número de resultados de ensayos consecutivos

5.2.3.4. Cuando se disponga de dos (2) grupos de ensayos consecutivos, que


entre ambos sumen treinta (30) o más resultados de ensayos, se debe determinar
la desviación estándar promedio aplicando la siguiente expresión:

Sp= √(n¿¿ 1−1)(s ¿¿ n 1)2 +(n2−1)¿ ¿ ¿ ¿ ¿


Siendo:
 sp el promedio estadístico de las desviaciones estándares, cuando se
usan dos grupos de resultados de ensayos para determinar la desviación
estándar.
 sn1 y sn2 las desviaciones estándares calculadas por separado para cada
uno de los dos grupos de resultados de ensayos.
 n1 y n2 el número de resultados de ensayos que conforman cada grupo (no
inferiores a 10).

68) Desarrolle los casos cuando son menos de 30 ensayos a la


compresión de probetas cilíndricas de hormigón.

Si la planta posee registros que cumplan con las siguientes condiciones:

a) Los resultados de ensayo deben pertenecer a una misma mezcla.


b) Los materiales y las condiciones de elaboración, deben ser similares a los del
hormigón a producir.
c) Los procedimientos de control de producción realizados deben ser igual de
rigurosos que los del hormigón a producir y se debe utilizar el mismo tamaño
de probeta del ensayo de resistencia.
d) Los cambios en los materiales y en las proporciones de la mezcla, que se
hayan producidos durante el período de tiempo al que corresponden los
registros de ensayos, deben ser iguales o más restringidos que aquellos
esperados para la obra.
e) Los resultados deben pertenecer a hormigones cuya resistencia esté dentro de
un intervalo de ± 10 MParespecto de la resistencia especificada para el
Proyecto a construir.
f) Se debe disponer de treinta (30) o más resultados de ensayos consecutivos o
en su defecto de al menos dos grupos de ensayos consecutivos que totalicen
un mínimo de 30 ensayos, donde cada grupo no podrá tener menos de 10
ensayos.

Pero sólo se dispone de 15 a 29 resultados de ensayos consecutivos, la desviación


estándar (Sn) se debe determinar con los valores de ensayo disponibles utilizando la
expresión indicada, y ese valor se debe incrementar con el factor que le corresponda
según la siguiente Tabla:

Nº de ensayos Factor de modificación de la


(Interpolar para un numero de desviación estándar, Sn
ensayos intermedios)
Menos de 15 No aplicable
15 1,16
20 1,08
25 1,03
30 1,00

Este procedimiento es válido si los ensayos pertenecen a un solo conjunto de


ensayos consecutivos realizados dentro de un período de tiempo no menor que
cuarenta y cinco (45) días corridos, y comprendido dentro de los últimos doce meses
respecto de la fecha del estudio de las proporciones que se efectúa.

Factor que incrementa la desviación estándar (Sn), cuando se dispone de


menos de 30 resultados de ensayos consecutivos:
En todos los casos, a medida que por el avance de obra se disponga de treinta (30) o
más ensayos consecutivos, se debe determinar la desviación estándar y con este
valor reajustar la dosificación del hormigón en caso de ser necesario.
La resistencia a la compresión promedio requerida se calcula con una de las
siguientes fórmulas:
f´cr = f´c + 1,34*k*s (c)
f´cr = f´c + 2,33*k*s – 3,45 (d)
Donde:
f´cr = resistencia a la compresión promedio requerida, MPa
f´c = resistencia especificada a la compresión, MPa
k = factor de mayoración obtenido de la tabla
s = desviación estándar, MPa
Hay que tomar el mayor valor de los f´cr calculados con las fórmulas (c) y (d)

69) Detalle la normativa cuando los resultados de los ensayos no resultan


correctos, y que se hace.
Determinación del volumen de hormigón no conforme:
Cuando alguno de los valores individuales, o de las medias móviles, no cumplen los
criterios de conformidad correspondientes, se debe acotar el volumen de hormigón
representado por las muestras defectuosas. A tal efecto se debe considerar que:
a) Si una o más medias móviles no cumplen con el criterio de conformidad que le
corresponde según el modo de control adoptado, se considerará defectuoso todo el
hormigón recibido durante el período comprendido entre la extracción de la primera y
la última muestra utilizadas en el cálculo de las medias móviles defectuosas.
b) Si un ensayo individual no cumple con el criterio de conformidad de los valores
individuales, se considerará defectuoso a todo el hormigón recibido durante el período
comprendido entre la extracción de las muestras anterior y posterior más próximas a
la defectuosa, cuyos resultados individuales satisfagan el criterio de conformidad de
los valores individuales.
VERIFICACIONES A REALIZAR CUANDO UN LOTE NO POSEE LA RESISTENCIA
POTENCIAL ESPECIFICADA
Esta verificación es de exclusiva aplicación para estructuras en construcción, en las
que la evaluación de acuerdo con el artículo 4.2 CIRSOC 201 *Control de
Conformidad* haya indicado lotes no conforme.
Esta verificación no puede ser aplicada a estructuras existentes o a estructuras en
construcción en las que se carezca de resultados de ensayos de probetas moldeadas.
Se debe proceder de la siguiente forma:
a) Se debe acotar el lote o fracción del lote no conforme.
b) Se debe extraer una cantidad de testigos de hormigón igual o mayor que el doble
del número de muestras indicada en el artículo 4.2.2.4. CIRSOC 201
c) La extracción y los ensayos de los testigos deben ser realizados bajo la supervisión
de la Dirección de Obra.
d) Los testigos deben ser extraídos en lugares que no afecten la estabilidad de la
estructura, empleando un equipo que asegure la extracción de muestras no alteradas
del hormigón de la estructura.
e) La extracción de los testigos, su preparación para el ensayo de resistencia y la
corrección de los resultados por esbeltez, se debe realizar según la norma IRAM
1551. El ensayo a la compresión se realizará según la norma IRAM 1546.
f) El diámetro de los testigos debe ser igual o mayor que tres (3) veces el tamaño
máximo nominal del agregado grueso, y no menor de 7,5 cm. La relación
altura/diámetro debe ser en lo posible igual a 2, y nunca menor de 1.
El Reglamento 4.4.3. CIRSOC 201 considera que el hormigón representado por los
testigos extraídos y ensayados, de acuerdo con los artículos 4.4.1 y 4.4.2, posee la
resistencia especificada si se cumplen las siguientes condiciones:
Modo 1 de Control:
a) La resistencia individual de cada testigo es igual o mayor que 0,75 de la resistencia
especificada.
f'ci ≥ 0,75 f'c
b) La resistencia media de los testigos extraídos del elemento estructural o del sector
de la estructura de hormigón que se analiza, es igual o mayor que 0,85 de la
resistencia especificada.
f´cm ≥ 0,85 f'c
Modo 2 de Control:
a) La resistencia individual de cada testigo es igual o mayor que 0,75 de la resistencia
especificada.
f'ci ≥ 0,75 f'c
b) La resistencia media de los testigos extraídos del elemento estructural o del sector
de la estructura de hormigón que se analiza es igual o mayor que 0,85 de la
resistencia especificada más 5 MPa.
f´cm ≥ 0,85 ( f'c + 5 MPa).
Bibliografía:
Reglamento CIRSOC 201-2005 "Reglamento Argentino de Estructuras de Hormigón".
Capítulo 4 · Criterios y Control de Conformidad del Hormigón
70) DETALLE LA NORMATIVA DE CÓMO SE ENSAYAN A LA COMPRESIÓN LAS
PROBETAS CILÍNDRICAS DE HORMIGÓN, Y COMO SE DEBEN MANTENER LAS
PROBETAS CUIDADAS…

El ensayo de probetas cilíndricas, a compresión simple, es un método para estimar la


calidad del hormigón. Cada ensayo representa la resistencia del punto de la estructura
de donde proviene la muestra. De ahí que el promedio de los valores del conjunto de
ensayos no tiene significado físico y de manera alguna puede atribuírsele el sentido
de valor más probable. La seguridad de una estructura, en lo que hace al material
utilizado en su ejecución, no depende de la resistencia media de dicho material, sino
de la resistencia del punto más débil de la estructura. El control de la calidad del
hormigón de una estructura, aparece así definido en términos de una resistencia
media y en la variación de los resultados individuales disponibles. La resistencia
promedio combinada con el valor de la dispersión de los resultados individuales
permite, aplicando las leyes de la estadística, calcular la resistencia mínima probable
en la estructura, que es la que permitirá fijar las tensiones admisibles para el
dimensionado de la misma.
Por lo general se realiza el ensayo en probetas de forma cilíndrica de esbeltez igual a
2 (altura de la probeta/diámetro de la base).
Se moldean las probetas de acuerdo a las Normas IRAM 1524 y 1534, el moldeo se
efectúa colocando y compactando el hormigón. Este procedimiento es válido solo para
hormigones de 3cm o más de asentamiento; para mezclas más secas la
compactación deberá efectuarse por vibración, ya sea mediante vibrador de inmersión
(diámetro máximo del elemento vibrante: 25mm para probetas de 15 x 30).
Curado: Las probetas se mantienen en sus moldes durante un periodo mínimo de 24
hs. En ese lapso no deberán sufrir vibraciones, sacudidas, ni golpes, se protegerá la
cara superior con arpillera húmeda, lamina de polietileno o tapa mecánica y se
mantendrá en ambiente protegido de inclemencias climáticas (calor, frio, lluvia,
viento). Una vez transcurridas las primeras 24 hs, se procede a desmoldar e
inmediatamente se acondiciona la probeta para su mantenimiento hasta el momento
de ensayo. Durante este periodo (7,14 o 28 días) deben mantenerse condiciones de
temperatura y humedad, según norma IRAM 1524 y 1534, la probeta debe
mantenerse en un medio ambiente con no menos del 95% de humedad relativa, y en
cuanto a la temperatura, en los 21 ºC, con una tolerancia en más o menos de 3 ºC
para la obra y de 1 ºC para el laboratorio (o lo que es lo mismo, en obra la
temperatura puede oscilar entre 18 ºC y 24 ºC) ...
Encabezado: Previo al ensayo de compresión, deben prepararse las superficies de
las bases del cilindro de manera que resulten paralelas entre si y al mismo tiempo
planas y lisas con las tolerancias de norma. Esto se consigue en forma muy sencilla,
efectuando el procedimiento denominado encabezado, para el que en la actualidad se
emplea habitualmente una mezcla en base a azufre, grafito y polvo calcáreo, la que
calentada hasta la fusión se coloca sobre una bandeja de acero pulido endurecido;
inmediatamente se apoya sobre esa mezcla fundida la probeta en posición vertical.
Como consecuencia del contacto con la probeta, que está a temperatura ambiente, la
mezcla se endurece y se adhiere firmemente a la base de la probeta, lo que permite
de inmediato repetir la operación con el extremo opuesto de la probeta, y esta queda
así en condiciones de ser sometida al ensayo de rotura por compresión.
Ejecución de ensayo de rotura por compresión:
Se utilizan prensas con capacidad de 100 a 150 toneladas. Se mide la deformación de
la probeta al aplicársele cargas cada vez mayores. La velocidad de aplicación de la
carga sobre la probeta tiene influencia importante en el resultado del ensayo; en
efecto las cargas excesivamente rápidas, al no dar tiempo a la deformación de todas
las partículas de la probeta, dan como consecuencia una carga de rotura
artificialmente elevada; en cambio la carga excesivamente lenta provoca el efecto
contrario. El ritmo de la velocidad debe mantenerse entre 250 y 600 kg por segundo
para probetas de 15 cm de diámetro, a partir del 50 % de la carga de rotura. En
cuanto a la exactitud de las lecturas de la prensa, debe verificarse con una
periodicidad de entre 6 meses y 1 año según el uso, debiendo mantenerse el error de
lectura por debajo del 1%.
Extracción y ensayo de probetas testigo
 Generalidades:
Cuando sea necesario determinar la resistencia del hormigón correspondiente a una
obra ya ejecutada, pueden obtenerse probetas talladas directamente de la obra. Las
probetas se extraen mediante perforadoras tubulares, con las que se obtienen testigos
cilíndricos cuyas caras extremas se cortan posteriormente con disco. Cuando se trata
de pilares, conviene muestrear en el tercio superior de los mismos.
El pacómetro es el detector magnético de armaduras, aplicado a la superficie del
hormigón permite localizar la presencia y el trazado de las armaduras hasta
profundidades del orden de los 10 cm.
 Dimensiones de las probetas:
Las probetas cilíndricas destinadas al ensayo de compresión tendrán un diámetro de
10 cm y su altura como mínimo el doble del diámetro. El diámetro no debe ser inferior
al triple del tamaño máximo del árido. Es conveniente que las probetas no se
extraigan antes de los 28 días. Sus bases de ensayo no deben tener irregularidades
grandes y deben ser perpendiculares al eje de la probeta.
 Preparación y conservación de las probetas:
En el caso en que la obra o estructura de la que se han extraído las probetas vaya a
estar sometido a humedad continuamente, o a saturación de agua, las probetas
talladas y refrentadas deben mantenerse antes del ensayo durante 40 a 48 horas en
agua.
 Evaluación de la resistencia:
La influencia de la edad, está ligada fundamentalmente al tipo de cemento y al grado
de maduración del hormigón. Si se desease estimar la resistencia a otra edad distinta
de la ensayada, habría que utilizar correlaciones específicas para cada cemento.

71) Dado dos hormigones H1 y H2, determinar comparativamente cuál es


el mejor hormigón en cuanto a su uniformidad de trabajo y resistencia,
determine sus valores, y si pueden ser H25?
Determine el mínimo probabilístico y el máximo, mínimo de ensayos y
máximo de ensayos, valores medio y f’c; todo esto relacionado con
DISEÑO DEL HORMIGÓN. Haga control 1 y 2.

Nro. De H1 (MPa) H2 Nro. De H1 H2


Ensayo Ensayo (MPa)
1 30 29 16 24 27
2 15 26 17 28 24
3 10 27 18 26 26
4 19 20 19 24 25
5 27 27 20 28 24
6 21 26 21 26 30
7 14 28 22 24 32
8 29 25 23 21 26
9 16 29 24 35 28
10 12 27 25 32 23
11 30 25 26 34 24
12 21 28 27 33 27
13 38 30 28 28 21
14 29 32 29 15 22
15 18 31 30 30 28

Formulas:
2


Sn= (X −Xi)
n−1
; Sn: desviacion estandar

S
= ; : calidad de trabajo
f ' cr
❑min prob =❑m-3* Sn ;❑min prob : minimo probabilistico

❑max prob=❑m+3* Sn ; ❑max prob: maximo probabilistico

f ' c= f ' cr -1,34* Sn ; f ' c: resistencia especificada


; f ' cr : resistencia media de diseño

Para el H1:

prome 24,5666
dio= 667
desv 7,26200
est= 947
24,5666
fcr'= 667
14,8355
fc'= 74
calidad 0,29560 29,5604
trab= 418 185
min
ensayo
= 12
max
ensayo
= 38

sigma 24,5666
m= 667
min 2,78063
prob= 824
max 46,3526
prob= 951

Modo de Control 1
fcr' 24,566666
= 7
fcr'
= 28,256056

Modo de Control 2
fcr' 29,566666
= 7
fcr'
= 31,756056

Para el H2:

prome 26,5666
dio= 667
desv 2,99059
est= 829
26,5666
fcr'= 667
22,5592
fc'= 65
calidad 0,11256 11,2569
trab= 957 572
min 20
ensayo
=
max
ensayo
= 32

sigma 26,5666
m= 667
min 17,5948
prob= 718
max 35,5384
prob= 616

Modo de Control 1
fcr' 26,566666
= 7
fcr'
= 26,027359

Modo de Control 2
fcr' 31,566666
= 7
fcr'
= 29,527359

entonces el H1 es un hormigon malo y el H2 es un hormigon


bueno
el H2 tiene mayor resistencia que el H1 (26,57)
EL H1 no puede ser H25
el H2 si puede ser H25

72) Importante: Del libro de Carles Broto sobre patologías, detalle sobre
causas de la alteración de la durabilidad de los materiales.

CAUSAS FISICAS:

Los cambios o alteraciones físicos de un material son los que se manifiestan mientras
se mantiene la causa que los ha originado. Implican una alteración de la distribución
interna de su estructura de átomos, moléculas e iones y, normalmente, provocan
únicamente una modificación de la forma o de la apariencia.
 Humedades: La humedad se puede definir como la presencia no deseada de
agua en estado líquido en lugares o períodos de tiempo variables. Por tanto,
cuando el agua se presenta en estado gaseoso no puede hablarse propiamente
de humedad. Por varias razones que no son difíciles de entender, la presencia de
agua, y por tanto la posible aparición de humedades, es algo inherente a una obra
o a un edificio ya construido.
Inestabilidad física y química del agua:
La humedad se puede definir como la presencia no deseada de agua en estado
líquido en lugares o períodos de tiempo variables. Por tanto, cuando el agua se
presenta en estado gaseoso no puede hablarse propiamente de humedad. Por varias
razones que no son difíciles de entender, la presencia de agua, y por tanto la posible
aparición de humedades, es algo inherente a una obra o a un edificio ya construido.
Tensión superficial:
La tensión superficial del agua es más grande que la de cualquier otro líquido y ello
tiene importantes consecuencias en la capilaridad de los materiales. En pocas
palabras, por tensión superficial, que es un fenómeno molecular propio de los líquidos,
se entiende el campo de fuerzas libres existente sobre la capa superficial de
cualquier fluido. También suele definirse como la capacidad de la capa externa de un
líquido para adoptar la mínima superficie.
 Tipología de humedades:
DE OBRA: debida al contenido residual del agua utilizada en los procesos
constructivos y que no se haya evaporado, así como al agua que contienen los
propios materiales.
CAPILAR: el agua procede del terreno sobre el que se encuentra el edificio y, por
capilaridad, asciende por los elementos que están en contacto con el terreno.
DE FILTRACIÓN: causada por la acción de la lluvia y el viento. El agua penetra
a través de elementos constructivos.
DE CONDENSACIÓN: la condensación del aire puede dar lugar a la formación
de gotitas que cuando se van agregando llegan a formar núcleos húmedos. Este
fenómeno se puede producir tanto en el exterior como en el interior del edificio.
ACCIDENTAL: la falta de mantenimiento de las instalaciones del edificio, el mal uso
de las mismas o algún fallo puntual también pueden provocar humedades.

CAUSAS MECANICAS:

En las causas de origen mecánico que pueden provocar la alteración y el deterioro de


los materiales constructivos se engloban todas aquellas acciones que implican un
esfuerzo mecánico sobre un determinado elemento del edificio que no había sido
previsto o que resulta superior al que se había calculado; en definitiva, un esfuerzo
superior al que ese determinado elemento puede soportar.
Estas acciones mecánicas provocan movimientos, deformaciones y roturas, que
aparecerán, tal como acabamos de decir, cuando un material sea incapaz de resistir
los esfuerzos mecánicos a los que se ve sometido durante su preparación, su
transporte, su colocación en el edificio o su uso.
Sin embargo, hay otros tipos de roturas que se manifiestan en forma de fisuras,
grietas o desprendimientos parciales que sí son bastante frecuentes y que constituyen
un gran peligro, ya que, además de provocar el desgaste del material, y por tanto la
disminución de su capacidad funcional, también favorecen la entrada de aire y agua,
hecho que puede dar lugar a la aparición de patologías de tipo físico o químico. Entre
las causas más frecuentes de deterioro mecánico de los elementos de un edificio se
suelen citar las cargas concentradas en exceso, la mala calidad en materiales de
unión y morteros, las tensiones provocadas por los esfuerzos térmicos, el
desplazamiento de la estructura por modificación de la cimentación en la que se
asienta el edificio o, incluso, los efectos perjudiciales provocados por el mal uso que
las personas hacen de materiales y elementos constructivos.
En general, las lesiones de origen mecánico se suelen subdivir en cuatro grandes
grupos: deformaciones, grietas y fisuras, desprendimientos y erosiones.
 Deformaciones: Se entiende por deformación todo cambio de forma sufrido tanto
por algún elemento estructural del edificio como por un cerramiento como
consecuencia de un esfuerzo mecánico. Las deformaciones se pueden producir
tanto durante la fabricación del elemento como durante la ejecución de la unidad
en la que va a quedar incluido o, incluso, una vez que ésta entra en carga.
Normalmente se suelen distinguir cuatro formas distintas de deformación:
FLECHAS. Son resultado de la flexión de elementos horizontales (vigas y forjados)
ante un exceso de cargas verticales o transmitidas desde otros elementos
estructurales adyacentes.
PANDEOS. Se producen como consecuencia de un esfuerzo de comprensión
sobre un elemento vertical, tanto lineal como superficial, superior a su capacidad
de carga.
ALABEOS. Son resultado de una rotación del elemento constructivo provocada
normalmente por esfuerzos horizontales.
DESPLOMES. Son consecuencia de un desplazamiento de las cabezas de los
elementos verticales provocado por empujes horizontales sobre la misma.
 Grietas y fisuras:
Tanto las grietas como las fisuras son aberturas longitudinales incontroladas y no
deseadas producidas en un material o elemento constructivo, ya sea estructural o de
simple cerramiento.
Aunque se han tratado de dar distintas definiciones de las grietas y las fisuras en
función del tamaño de su abertura o de su movilidad, intentando sobre todo distinguir
y diferenciar las características de cada una de estas dos lesiones, lo más adecuado
parece clasificarlas según el espesor de la abertura en el material o elemento
constructivo. De acuerdo a su amplitud tenemos:
MICROFISURAS. Son aberturas muy pequeñas que no resultan visibles.
FISURAS. Aberturas que en general tienen una anchura inferior al milímetro y que
afectan sólo a la superficie del material o del elemento constructivo o al acabado
superficial superpuesto.
Según su movilidad las fisuras se suelen dividir en:
FISURAS MUERTAS. Sus dimensiones no varían a lo largo del tiempo y su único
problema es su aspecto estético y la sensación de poca seguridad en la obra. A veces
pueden no percibirse a simple vista.
FISURAS VIVAS. Su anchura aumenta o disminuye con el paso del tiempo o debido
al uso de la edificación, por lo que se hace indispensable ponerles remedio.
 GRIETAS. Son aberturas de más de un milímetro de ancho que afectan a todo el
espesor del material o del elemento constructivo, por lo que provocan la pérdida
de su consistencia y de su integridad.
A continuación analizaremos con detalle las principales características de estas
patologías.
SEGÚN EL MATERIAL
La aparición de grietas o fisuras en un muro, o en otro elemento constructivo, tiene
mucho que ver con las características del material o materiales utilizados para su
construcción y, en concreto, con la falta de respuesta del mismo frente a las
exigencias de resistencia y elasticidad a las que se encuentra sometido por distintas
cargas o tensiones.
SEGÚN LA CAUSA
Como ya se ha mencionado anteriormente, la aparición de grietas y fisuras en un
muro de un edificio es consecuencia de la deficiente respuesta del mismo frente a las
exigencias de resistencia y elasticidad –es decir, a los esfuerzos mecánicos– a las
que se ve sometido.
 Desprendimientos:
Los desprendimientos de los materiales que componen la fachada de un edificio son
sucesos que en la actualidad se producen con bastante frecuencia. Un
desprendimiento se puede definir como la separación incontrolada de un material de
acabado o de un elemento constructivo del soporte o base al que estaba aplicado. En
ocasiones, sin embargo, puede desprenderse también el material que constituye la
fachada (por ejemplo, ladrillo cara vista, piedra natural, etc.).
Evidentemente, esta patología implica dos consecuencias distintas: el deterioro
funcional y estético de la fábrica y el peligro que representan los desprendimientos
cuando caen en zonas por donde suelen pasar personas o vehículos. Normalmente,
esta lesión se produce como consecuencia de lesiones previas, entre ellas las
deformaciones, las fisuraciones o las grietas.
TIPOS DE ACABADO
Se entiende por acabado, o revestimiento, cualquier capa de material aplicada sobre
cualquier cerramiento, o elemento constructivo independiente sujeto al cerramiento,
que recibe el nombre de soporte o base del acabado.
Según el material y la técnica constructiva que se utilicen, los acabados se pueden
clasificar en dos grandes grupos: acabados continuos y acabados anclados o
colgados.
ACABADOS CONTINUOS
Son todos los acabados de paredes, techos y suelos constituidos por morteros y
pastas (por tanto, que no tienen juntas). Se aplican sobre el soporte en estado plástico
y, cuando se endurecen, adquieren unas determinadas características fisicoquímicas.
ACABADOS ANCLADOS O COLGADOS
Se definen anclados o colgados los acabados formados por distintos elementos, los
cuales llegan a la obra ya con un determinado nivel de acabado y sólo requieren su
sujeción al soporte. Lógicamente, el sistema que se utilice para adherir el acabado
tiene que estar en función del uso que se le va a dar a este último.
TIPOLOGÍA DE LOS DESPRENDIMIENTOS
El desprendimiento de un acabado depende en buena medida del sistema con el que
haya sido aplicado al soporte, del material de sus elementos y del tipo de acabado
(continuo o anclado). Sin embargo, existen algunas causas generales que influyen en
la aparición de esta lesión y que conviene analizar antes de pasar a estudiar
individualmente los distintos acabados. En cualquier caso, los desprendimientos
obligan siempre a la demolición y recolocación del acabado. En función de la
intensidad y extensión de la lesión esta sustitución podrá ser parcial –sólo de las
piezas afectadas– o total.
SEGÚN LA CAUSA
Puesto que como acabamos de mencionar estas causas generales y comunes están
en función del método de sujeción del acabado al soporte, lo más conveniente es
analizarlas según los tipos de acabados que hemos descrito anteriormente.
Por lo que se refiere a los acabados continuos adheridos con morteros o colas, la
causa siempre es una falta de adherencia que puede deberse a una defectuosa
aplicación del mortero o la cola que haya impedido, antes del fraguado, la debida
penetración por la red capilar del soporte, así como a determinados movimientos de
los acabados debidos a los cambios de humedad o de temperatura.
Por tanto, para que se produzca el desprendimiento es necesario que se rompan las
interpenetraciones –en el caso de las adherencias mecánicas– o que se produzca una
reacción química capaz de destruir la unión molecular –en el caso de las adherencias
químicas. Normalmente, en los acabados continuos adheridos con morteros o colas
se suelen distinguir tres causas generales de desprendimiento: POR ESFUERZO
RASANTE, POR DILATACIÓN DE ELEMENTOS INFILTRADOS Y POR FALTA DE
ADHERENCIA PROPIAMENTE DICHA. El primero se produce cuando un acabado
continuo, por ejemplo mortero, y el soporte sobre el que se ha aplicado se mueven en
una misma dirección, pero en sentido contrario, se produce el llamado esfuerzo
rasante, que puede provocar la pérdida de la integridad de la unión entre ambos
elementos.
Erosión Mecánica:
Se define como erosión mecánica la pérdida de material superficial de un elemento
constructivo debida a esfuerzos mecánicos que actúan sobre ellos (golpes, roces,
etc.). En definitiva, se trata de cualquier efecto destructor que ataca la superficie de un
material provocando su deterioro progresivo. Las erosiones mecánicas afectan
especialmente a los pavimentos de las viviendas, ya que sobre ellos se ejerce un roce
y un punzonamiento continuos, pero como veremos más adelante se producen en
bastantes otras partes de un edificio.
 CAUSAS QUIMICAS:

Los materiales constructivos también pueden sufrir patologías de origen químico, que,
en general, suelen consistir en reacciones químicas de sales, ácidos o álcalis que
acaban produciendo algún tipo de descomposición del material afectado. A la larga,
éste irá perdiendo su integridad, ya que las patologías de carácter químico afectan
notablemente a la durabilidad de los materiales. En conjunto, las lesiones de origen
químico se desarrollan a través de procesos claramente distintos a los de las
patologías de carácter físico y mecánico, pero sin embargo, en ocasiones su
sintomatología puede llegar a confundirse.
Se suelen distinguir cuatro grupos de lesiones químicas. Son: las
EFLORESCENCIAS, es decir, los depósitos de sales minerales solubles que se
forman sobre la superficie de un material; las OXIDACIONES Y CORROSIONES,
entendidas como una transformación química que se produce en la superficie de los
metales, especialmente el hierro y el acero, que provoca la destrucción de la misma;
la EROSIÓN, o sea la pérdida de material en las superficies de los materiales como
resultado de ciertas reacciones químicas de sus componentes con otras sustancias
atacantes; y por último, los PROCESOS BIOQUÍMICOS, es decir, el conjunto de
lesiones químicas que se deriva de la presencia de un organismo vivo, ya sea animal
o vegetal, y que afecta a la superficie del material constructivo.
Eflorescencias:
En general, se suele definir a las eflorescencias como la cristalización en la superficie
de un material de sales solubles contenidos en el mismo. El fenómeno se produce
cuando el agua que se halla en el interior de un material, y que contiene una solución
de esas sales, se evapora de manera relativamente rápida.
En efecto, durante la evaporación, el agua, que va de dentro hacia fuera, arrastra a
esa solución salina hasta la superficie del material y, una vez allí, mientras se
completa la evaporación, la mencionada solución inicia un proceso de concentración –
es decir que la concentración de las sales en la solución va aumentando- que puede
llevar a su saturación y posterior cristalización. Ésta se suele manifestar en forma de
manchas blancuzcas que afean el aspecto exterior de los cerramientos y deterioran el
material (las eflorescencias pueden ocasionar, por ejemplo, los desprendimientos de
azulejos).
Normalmente, estas manchas tienen formas geométricas que varían según el cristal y
que en cierto modo se parecen a flores, de ahí el nombre de la lesión. Esta lesión
afecta con más frecuencia a los materiales más porosos o con texturas más abiertas y
con cierta capacidad de absorción de agua, como el ladrillo, la piedra, el hormigón, los
morteros o el yeso.
Oxidación y Corrosión:
Globalmente, por oxidación y corrosión se entiende la transformación molecular y la
pérdida de material en las superficies de los metales, sobre todo del hierro y el acero.
Dicho de una manera más sencilla, estas dos lesiones se pueden definir como la
destrucción química de la superficie de un metal por la interacción con agentes con
los que está en contacto.
OXIDACION:
Es un proceso químico por el cual la superficie de un metal reacciona con el oxígeno
del aire que tiene a su alrededor y se transforma en óxido. Esto se debe a que los
metales, normalmente, son inestables químicamente y tienden a convertirse en óxido,
que es más estable. En el fondo, el proceso que sufre el metal no es más que una
recuperación de su estado natural. En efecto, los metales no se hallan en la
naturaleza en estado puro (excepto los denominados ‘metales puros’, como el oro o el
platino), sino que se encuentran en los minerales combinados en distintas formas
químicas, entre ellas los óxidos.
En definitiva, hay que concluir que la oxidación es una lesión elemental, de fácil
prevención o reparación, y que su parte negativa se halla en el aspecto desagradable
que pueden adoptar los elementos constructivos metálicos afectados.
CORROSIÓN
Es un ataque que implica una reacción química acompañada del paso de corriente
eléctrica. Por esta razón, la corrosión suele denominarse también oxidación
electrolítica. A diferencia de la oxidación propiamente dicha, la corrosión no afecta
sólo a la capa superficial del metal, sino que el ataque continúa hasta la destrucción
total del mismo. Este fenómeno se desarrolla entre dos zonas determinadas de la
superficie del metal, zonas que reciben el nombre de ánodo y cátodo, y por medio de
un fluido conductor (electrolito) capaz de conducir una corriente eléctrica.
Tanto en los ánodos como en los cátodos se producen una serie de reacciones, pero
la corrosión se produce como resultado de la interacción de los procesos que tienen
lugar en ambos, en ánodos y cátodos.
 Erosión Química:
La erosión química se puede definir como la destrucción o alteración de la superficie
de un material como consecuencia de ciertos procesos o reacciones químicas de sus
componentes con otros agentes exteriores atacantes, como los contaminantes
atmosféricos, sales o álcalis disueltos en las aguas de capilaridad o filtración,
productos aplicados por el hombre, etc. Su resultado final no consiste sólo en la
transformación molecular del material –que implica una modificación de su estructura
y una variación de su aspecto–, sino también la progresiva pérdida del material –en
ocasiones se puede llegar a su total destrucción– como consecuencia de la mayor
fragilidad o solubilidad de las nuevas estructuras moleculares.
En realidad, los materiales siempre se han erosionado de manera natural, pero el
proceso, debido a la acción de los agentes atmosféricos, se ha desarrollado muy
lentamente y, en lo que se refiere a la construcción, no solía representar un motivo de
preocupación.
La erosión química afecta especialmente a los materiales pétreos, en los que se
forman unas costras o capas superficiales que son las que degradan la piedra.
ELEMENTOS Y COMPUESTOS QUE ORIGINAN LA EROSIÓN
DIÓXIDO DE CARBONO
Procede de dos fuentes, ya que es un componente natural de la biosfera y, además,
es emitido a la atmósfera como resultado de las actividades industriales. El dióxido de
carbono acidifica las aguas de lluvia (lluvia ácida) y actúa principalmente sobre
materiales calizos (piedras, mármoles, hormigones) incrementando en gran medida la
velocidad de disolución o disgregación de este tipo de piedras o de aquellas que
contengan elementos calcáreos.
DIÓXIDO DE AZUFRE
Es tal vez el agente contaminante más peligroso y procede de la combustión de
hidrocarburos (vehículos y calefacciones) y carbón mineral. Cuando se acumula en la
atmósfera, tiende a asociarse con las partículas sólidas y líquidas suspendidas en el
aire. El dióxido de azufre sufre un proceso de oxidación debido a la presencia en la
atmósfera de ciertos catalizadores (luz solar, vanadio, manganeso, etc.) que le lleva a
transformarse en trióxido de azufre (2 SO2 + O2 = 2 SO3). Éste, que es higroscópico,
al combinarse con el agua de lluvia produce ácido sulfúrico (2 SO3 + 2 H2O = 2
H2OSO4).
CLORUROS
Son contaminantes fuertes y agresivos porque al combinarse con el agua de lluvia
provocan la formación de ácido clorhídrico o ácido hipocloroso. En concreto, el
primero se puede llegar a combinar con la cal de hidrólisis de los cementos,
produciendo cloruro cálcico y rebajando el pH del material. Entonces, el material sufre
una fuerte presión de cristalización que disgregará su superficie.
FLUORUROS
Aparecen en la atmósfera como resultado de la contaminación industrial,
principalmente la de las industrias siderometalúrgicas. Si actúan en medios ácidos y
húmedos (lluvia ácida con presencia de dióxido de azufre), los aerosoles de fluoruros
reaccionan con la sílice de los materiales de fachada produciendo tetra fluoruro de
silicio, compuesto muy volátil que puede causar importantes alteraciones en los
componentes silíceos de los materiales y provocar erosión superficial. Por lo común,
ataca a hormigones y morteros con áridos silíceos –especialmente a los morteros de
revocos– y a algunos granitos.
AGUA PURA
Aunque en los materiales constructivos aparece con muy poca frecuencia, su ataque
puede resultar altamente dañina para los hormigones –material sobre el que suele
actuar–, ya que disuelve la cal y arrastra parte de la alúmina provocando
disgregaciones. En caso de que su acción sea bastante prolongada, aparecerá un
residuo superficial en forma de costra compuesto de sílice hidratada, alúmina de
aspecto gelatinoso y óxido de hierro. Este residuo tiene escasísima cohesión y, en
consecuencia, puede escamarse y desprenderse erosionando la superficie.
ÁLCALIS DEL CEMENTO
No todos los agentes químicos que atacan a los materiales provienen del exterior.
Algunos proceden del interior de los mismos, como es el caso de los álcalis (K2O,
Na2O). Básicamente, su acción está asociada a materiales y productos obtenidos con
cementos, especialmente con cemento Portland, ya que generalmente contienen
álcalis de sodio y de potasio. De hecho, cuando su porcentaje en los cementos supera
el 6 % pueden atacar a algunos tipos de áridos, como las sílices, opalinas, calcedonia,
riolita, etc.
El ataque de los álcalis se suele manifestar en forma de expansiones volumétricas,
disgregaciones y rupturas del material afectado debidas a reacciones entre los álcalis
y ciertos silicatos contenidos en los granos.

ORGANISMOS
La presencia o acción continuada de un organismo sobre los cerramientos puede
llegar a provocar erosiones químicas, que aunque constituyen una patología
secundaria, pues no aparecen con mucha frecuencia, deben tenerse en cuenta.
 Procesos bioquímicos:
El deterioro causado en los materiales por agentes biológicos no es un fenómeno
aislado, sino que es consecuencia de la interacción de numerosos factores, por lo que
conviene analizarlo con detalle.
En este apartado se estudia el conjunto de lesiones provocado por el asentamiento
incontrolado de organismos vivos, ya sean animales o vegetales, en las fachadas de
los edificios y que afecta a la superficie de los materiales de las mismas. Estas
lesiones suelen incluirse entre las patologías químicas debido a que su proceso es
fundamentalmente químico, a pesar de que algunas de las actuaciones de los
organismos vivos sean puramente mecánicas o físicas. Las lesiones provocadas por
los organismos suelen distinguirse por la ‘actitud’ del mismo, que puede ser pasiva, o
sea de simple asentamiento, o agresiva, es decir, de destrucción del material. Aun así,
para mayor comodidad, aquí hemos optado por clasificar estas patologías en función
del agente que las provoca: animales o plantas.
ANIMALES
Se suelen subdivir en función de su tamaño: pequeños y grandes. Aunque en los
edificios modernos suele detectarse la presencia de algunas arañas –que hacen sus
nidos en los pequeños orificios de las paredes exteriores de la fábrica, pero cuya
acción no es destructora–, los insectos, es decir los animales pequeños, que causan
mayores daños son los xilófagos. Éstos atacan a la madera, bien creando una red de
cavernas en el interior del material, bien por medio de sus larvas, que se alimentan de
la madera y, por ello, atacan a sus fibras más resistentes.
VEGETALES
El aerosol atmosférico contiene partículas vivas o microorganismos vegetales como
bacterias, algas u hongos, que pueden hallarse aisladas o adheridas a otros
elementos, como a granos de polvo, de polen o semillas. A continuación analizaremos
los principales microorganismos vegetales implicados en los procesos de
degradación.
HONGOS: son organismos heterótrofos que no se desarrollan a partir de substratos
inorgánicos, sino que aprovechan el material orgánico para crecer. Poseen tamaños
que oscilan entre las 3 y 100 micras y pueden producir daños mecánicos y
alteraciones químicas debido a la presencia de ácidos orgánicos (cítrico, oxálico,
fumárico), inorgánicos (carbónico, nítrico) y de sustancias quelantes. En general, su
acción requiere oxígeno gaseoso y gran cantidad de agua, superior al 20 % de
humedad en el elemento constructivo, además de una temperatura suave (entre 20 y
25 °C) y deterioran notablemente los silicatos de aluminio, las calizas y los morteros.

73) Como se determina en humedad la SSS , del AG, y la SSS del AF.

 Para agregado grueso:


Se sumergen 24 hs y luego se seca su superficie y se pesan. Se repite el proceso
hasta que el peso entre una medición y otra no varié, para asegurarnos de que se
encuentran saturados.

Densidad relativa saturada y superficie seca = (Ph-Ps)/Ps


Donde: Ph: peso muestra humeda
Ps: peso muestra seca

 Para agregado fino:

Densidad del Agregado Fino Para la determinación de la densidad relativa de las


arenas se emplea normalmente el volumenómetro de Le Chatelier. Por diferencia de
lectura del menisco de la columna de agua puede determinarse el volumen del
conjunto de partículas, de peso P. Densidad relativa = P/(lf - Ii) También puede
emplearse el procedimiento recomendado por la norma IRAM 1520:2002, para lo cual
debe disponerse de un matraz aforado de 500 cm3 . El volumen es la diferencia entre
los volúmenes del matraz y del agua agregado al mismo para llegar a la marca de 500
cm3 , luego que se han incorporado 500 g de arena. La norma IRAM especifica la
determinación de la densidad relativa de la muestra en estado seco y saturada con
superficie seca. En la Tabla 5 se dan los valores característicos de la densidad
relativa saturada y superficie seca de materiales empleados habitualmente en el país
y su gama de variación.
SE UTILIZAN UNOS TRONCOS CONICOS EN LOS CUALES SE COMPACTA LA
ARENA HUMEDA, LUEGO SE LO EXTRAE Y SE DICE QUE SERA SATURADA A
SUPERFICIE SECA CUANDO LA MOLDURA SE DESARME NO TOTALMENTE
SINO SUPERFICIALMENTE. DE ESA MUESTRA SE DETERMINA LA HUMEDAD.

Bibliografía: Universidad Tecnológica Nacional, Tecnología del Hormigón.


74) Resolver: Se llevan al laboratorio una serie de muestras de árido grueso
para determinar las gravedades específicas, determine:
a) el peso específico real del árido en estado seco
b) el peso específico aparente del árido
c) El contenido de humedad del árido del montón(porcentaje)
d) La absorción (porcentaje), con los siguientes datos: Masa de la muestra de
árido húmedo llevada al laboratorio: 5298 gramos; Masa del árido secado al
horno: 5216 gr.; Masa de los áridos sumergidos en agua: 3295 gr; masa del
estado SSS: 5227 gr.

WH = 5298 g. Ws = 5216 g. Wsum = 3295 g. Wsss = 5227 g. δagua=1000Kg/cm2


W s∗δ agua
a) Peso específico en estado seco = = 2700. Kg/cm2
W sss −W ∑ ¿ ¿

W s∗δ agua
b) Peso específico aparente = = 2710 Kg/cm2
W s −W ∑ ¿ ¿

W h−W s
c) Contenido de humedad del árido del montón = * 100 = 1,36 %
Ws
W sss −W s
d) Absorción = * 100 = 0,21 %
Ws
75) Detalle cómo se realiza la curva granulométrica, para que sirve, como
se dibuja la curva con la escala elevado a la 0.45, y que es el módulo de
fineza.

CURVA GRANULOMETRICA
La curva granulométrica de un suelo es una representación gráfica de los resultados
obtenidos en laboratorio cuando se analiza la estructura del suelo desde el punto de
vista del tamaño de las partículas que lo forman.
El propósito del análisis granulométrico, es determinar el tamaño de las partículas o
granos que constituyen un suelo y fijar en porcentaje de su peso total, la cantidad de
granos de distintos tamaños que el suelo contiene.
El método más directo para separar un suelo en fracciones de distinto tamaño
consiste en el uso de tamices con aberturas de malla estandarizadas y obtener el
peso de las cantidades que han sido retenidas en cada tamiz. Pero como la abertura
de las malla más fina que se fabrica corrientemente es de 0.07 mm., el uso de tamices
está restringido al análisis de arenas limpias, de modo que, si un suelo contiene
partículas menores de dicho tamaño se deben separar por el método hidrométrico.
Para graficar la curva granulométrica, debemos tomar en cuenta que:
 los porcentajes de muestra que pasa cada uno de los tamices, se encuentran
en el eje de las ordenadas y a una escala aritmética.
 la ordenación de la abertura del tamiz en mm. se encuentra en el eje de las
abscisas y con una escala logarítmica; esto para facilitar la construcción de la
curva granulométrica.

USO DE LA CURVA GRANULOMETRICA


La curva granulométrica permite visualizar la
tendencia homogénea o heterogénea que tienen los tamaños de grano de las
partículas y permite clasificar al suelo mediante sistemas como el SUCS (Sistema
Unificado de Clasificación de Suelos).
La granulometría de los áridos es uno de los parámetros más importantes empleados
para la dosificación del hormigón (La mayoría de los métodos de dosificación
presentan especificaciones sobre las granulometrías óptimas que deben tener los
áridos).

ESCALA ELEVADO A LA 0,45


Como el eje horizontal está en escala logarítmica, a veces no podemos representarla
fácilmente entonces utilizamos un método simple que consiste en elevar a la 0,45 el
tamaño de cada tamiz expresado en milímetros. Así podemos obtener, en escala
normal, un cierto valor que será el correspondido con las aberturas de los tamices. En
el grafico entonces ubicamos estos valores los cuales nos indican las aberturas en
mm de los tamices.

MODULO DE FINEZA O FINURA


El módulo de finura (Mf), también llamado modulo granulométrico, no es un índice de
granulometría, ya que un mismo modulo puede corresponder a un número infinito de
granulometrías diferentes; sin embargo, da una idea del grosor o finura del agregado.
Los tamices especificados que deben usarse en la determinación del módulo de finura
son:
N° 100. No. 50, No. 30, No. 16, No, 8, No. 4, 3/8”, 3/4”, 1½”, 3” y el módulo de finura
será:

Σ %retenido acum(3 '+1 ,5 '+ 3/4 ' +3/8 '+ N ° 4+ N ° 8+ N ° 16 + N ° 30+ N ° 50+ N ° 100)
Mf AG =
100
Σ %retenido acum( N ° 4+ N ° 8+ N ° 16+ N ° 30+ N ° 50+ N ° 100)
Mf AF =
100

Fuentes:

 Apuntes de Clase Teorica

76) Resolver: Realice un análisis granulométrico de la siguiente muestra


de árido y elabore un gráfico, determine su MF, su Masa de Alta Densidad
(0,45) y que conclusiones puede sacar.
Importante: llegar hasta la Masa de Alta Densidad
Cedazo Reten gr. Reten.Acum gr. %Reten.acum. %que pasa
4 0
8 200,2
16 299,8
30 288,2
50 164,8
100 44,4
Bandeja 2,6
Cedaz Tamice Retenido Ret. % Ret. %
md
o s (gr) Acumulado Acum. Pasante

0,0047
N°4 0 0 0 100 0,00
5

0,0024 73,5
N°8 200,2 200,2 20,02 79,98
0 5

0,0012 53,8
N°16 299,8 500 50,0 50,0
0 4

0,0006 39,4
N°30 288,2 788,2 78,82 21,18
0 1

0,0003 28,8
N°50 164,8 953 95,3 4,7
0 5

0,0001 21,1
N°100 44,4 997,4 99,74 0,26
5 2

FOND
2,6 1000 100 0
O

MF =
∑ Ret acum% =¿ 4,4388
100

% Pasante
120
100
80
% Pasante
60
40
20
0
0 0 0.01

77) Resolver: la tabla muestra la distribución de tamaño de los áridos A, B. los


dos áridos deben mezclarse con una relación 40:60 en peso, respectivamente.
Determine la distribución de tamaños de granos de la mezcla.
PROCENTAJE QUE PASA
Tamaño
25 19 12,5 9,5 4,75 1,18 0,69 0,30 0,15
Mm mm mm mm mm mm mm mm mm
Árido A 100 100 95 83 67 49 37 25 18
Árido B 100 90 74 51 32 24 19 13 7

Resolución:
Peso que pasa por cada tamiz del árido A: (porcentaje que pasa de A)*0.4=X
Peso que pasa por cada tamiz del árido B: (porcentaje que pasa de B)*0.6=Y
Porcentaje total que pasa por cada tamiz: TOTAL=X+Y

Tamic Árido Árido X Y TOTAL=X Elevado a


A B(m
es (mm) m) +Y 0.45
4,256699
25 100 100 40 60 100 61
3,762176
19 100 90 40 54 94 1
3,116086
12,5 95 74 38 44,4 82,4 51
2,754074
9,5 83 51 33,2 30,6 63,8 11
2,016100
4,75 67 32 26,8 19,2 46 25
1,077325
1,18 49 24 19,6 14,4 34 41
0,846217
0,69 37 19 14,8 11,4 26,2 67
0,581707
0,3 25 13 10 7,8 17,8 37
0,425834
0,15 18 7 7,2 4,2 11,4 72

Curva Granulométrica
120

100
% Pasa Acumulado

80

60

40

20

0
1 1.5 2 2.5 3 3.5 4 4.5
Tamiz

78) DESARROLLE QUE SON ROCAS ÍGNEAS, SEDIMENTARIAS Y


METAMÓRFICAS.

Las rocas ígneas (latín ignius, "fuego") se forman cuando el magma (roca fundida) se


enfría y se solidifica. Si el enfriamiento se produce lentamente bajo la superficie se
forman rocas con cristales grandes denominadas rocas plutónicas o intrusivas,
mientras que si el enfriamiento se produce rápidamente sobre la superficie, por
ejemplo, tras una erupción volcánica, se forman rocas con cristales invisibles
conocidas como rocas volcánicas o extrusivas. La mayor parte de los 700 tipos de
rocas ígneas que se han descrito se han formado bajo la superficie de la corteza
terrestre. Ejemplos de rocas ígneas son la diorita, la riolita, el pórfido, el gabro,
el basalto y el granito.
Las rocas plutónicas o intrusivas se forman a partir de magma solidificado en grandes
masas en el interior de la corteza terrestre. El magma, rodeado de rocas preexistentes
(conocidas como rocas caja), se enfría lentamente, lo que permite que los minerales
formen cristales grandes, visibles a simple vista, por lo que son rocas de "grano
grueso". Tal es el caso del granito o el pórfido.
Las rocas volcánicas o extrusivas se forman por la solidificación del magma (lava) en
la superficie de la corteza terrestre, usualmente tras una erupción volcánica. Dado que
el enfriamiento es mucho más rápido que en el caso de las rocas intrusivas, los iones
de los minerales no pueden organizarse en cristales grandes, por lo que las rocas
volcánicas son de grano fino (cristales invisibles a ojo desnudo), como el basalto, o
completamente amorfas (una textura similar al vidrio), como la obsidiana. En muchas
rocas volcánicas se pueden observar los huecos dejados por las burbujas de gas que
escapan durante la solidificación del magma.

Las rocas sedimentarias son rocas que se forman por acumulación


de sedimentos que, sometidos a procesos físicos y químicos (diagénesis), dan lugar a
materiales más o menos consolidados. Pueden formarse a las orillas de los ríos, en el
fondo de barrancos, valles, lagos, mares, y en las desembocaduras de los ríos. Se
hallan dispuestas formando capas o estratos.
Existen procesos geológicos externos actúan sobre las rocas preexistentes y
las meteorizan, transportan y depositan en diferentes lugares dependiendo del agente
que transporte (agua, viento, hielo). De igual manera, distintos
organismos animales o vegetales pueden contribuir a la formación de rocas
sedimentarias (fósiles). Las rocas sedimentarias pueden existir hasta una profundidad
de diez kilómetros en la corteza terrestre. Estas rocas pueden presentarse sueltas o
consolidadas, es decir, que han sido unidas a otras por procesos posteriores a la
sedimentación, conocidos como diagénesis.
Las rocas sedimentarias cubren más del 75 % de la superficie terrestre, formando una
cobertura sedimentaria sobre un zócalo formado por rocas ígneas y, en menor
medida, metamórficas. Sin embargo su volumen total es pequeño cuando se
comparan sobre todo con las rocas ígneas, que no sólo forman la mayor parte de la
corteza, sino la totalidad del manto.

Las rocas metamórficas son las que se forman a partir de otras rocas mediante un


proceso llamado metamorfismo. El metamorfismo se da indistintamente en rocas
ígneas, rocas sedimentarias u otras rocas metamórficas, cuando éstas quedan
sometidas a altas presiones (de alrededor de 1.500 bar), altas temperaturas (entre
150 y 200 °C) o a un fluido activo que provoca cambios en la composición de la roca,
aportando nuevas sustancias a ésta. Al precursor de una roca metamórfica se le
llama protolito.
Las rocas metamórficas se clasifican según sus propiedades físico-químicas. Los
factores que definen las rocas metamórficas son dos: los minerales que las forman y
las texturas que presentan dichas rocas. Las texturas son de dos tipos, foliadas y no
foliada.
 Textura foliada: Algunas de ellas son la pizarra (al romperse se obtienen
láminas), el esquisto (se rompe con facilidad) y el gneis (formado por
minerales claros y oscuros).
 Textura no foliada: Algunas de ellas son el mármol (aspecto cristalino y se
forman por metamorfismo de calizas y dolomías), la cuarcita (es blanca pero
puede cambiar por las impurezas), la serpentinita (que al transformarse origina
el asbesto) y la cancagua.
Bibliografía: https://es.wikipedia.org/
76) EN LOS ÁRIDOS COMO AFECTA LA FORMA Y TEXTURA DE LAS
PARTÍCULAS, PARA LA DOSIFICACIÓN DEL HORMIGÓN.
 Forma: la forma ideal es la esférica o poliédrica por la mayor facilidad de
desplazamiento y mejor acomodamiento de partículas (aumenta la
trabajabilidad). Es conveniente que en un mismo tamaño las partículas sean
uniformes. Las partículas chatas disminuyen la resistencia a la flexión y
permiten alojamiento de agua en su cara inferior disminuyendo durabilidad.
 Textura superficial: las superficies rugosas mejoran la adherencia y por lo tanto
aumentan la resistencia mecánica. Las superficies lisas mejoran la
trabajabilidad pero disminuyen la resistencia.
 Tamaño adecuado: los tamaños utilizados pueden variar entre 74 micrones
(tamiz Nº 200) y 6’’ (150 mm). Agregados muy pequeños tienen gran superficie
específica por lo que necesitan grandes cantidades de agua para que la
mezcla adquiera trabajabilidad. (Sup. Esp.: la suma de las áreas del material
en una unidad de volumen).

La forma, tamaño y granulometría de los agregados tienen marcada influencia en el


hormigón fresco, influyendo en el costo. Las reglamentaciones y especificaciones fijan
límites granulométricos entre óptimos y tolerables, atendiendo más a razones
económicas que a las estrictamente técnicas.
En efecto, las granulometrías defectuosas, con partículas rugosas, chatas y
alargadas, requieren más agua que los agregados redondeados o cúbicos, para
producir un hormigón trabajable. Esto requiere un mayor consumo de cemento para
mantener la calidad de la pasta.
77) Detalle como es la prueba de consistencia de los agregados mediante
ciclos de congelación y deshielo.
El ensayo propuesto en la norma IRAM 1661, demanda mucho tiempo de ejecución y
requiere un equipo que no está disponible en la mayoría de los laboratorios. Por eso,
las normas recurren a un ensayo acelerado, sencillo y de resultados muy confiables
cuando son satisfactorios. Simula los efectos de la cristalización del hielo en un
agregado saturado mediante la cristalización de una sal. El más usado determina la
estabilidad del agregado frente a una solución de sulfato de sodio, aplicando la norma
IRAM 1525 [3220]. Consiste en sumergir el agregado en una solución saturada de
sulfato de sodio o de magnesio, y posteriormente secar el mismo en una estufa,
determinando su perdida en peso después de cinco ciclos. El método asume que la
cristalización de las sales en los poros del agregado simula la rotura de la partícula del
agregado por formación de hielo en su interior. No obstante, al ensayar el agregado
en forma independiente de la pasta de cemento el método se aleja de la realidad y es
muy exigente. Sus resultados terminan siendo definitorios cuando el agregado supera
la prueba; en caso desfavorable se debe recurrir a otras instancias de evaluación.
Fuentes:
 HORMIGON- Alberto Giovambattista

78) Que es abrasión y como es el ensayo Los Ángeles(ASTM


C131,C535)

 Abrasión: Acción y efecto de raer o desgastar por fricción. Proceso de
profundo desgaste o de destrucción, producido en la superficie terrestre al
arrancarle porciones de materia los agentes externos.
 Los reglamentos y especificaciones nacionales e internacionales, incluyendo el
reglamento CIRSOC 201-2005 exigen verificar el comportamiento del
agregado grueso con el método de ensayo “Los Ángeles”. Este método mide
conjuntamente dos propiedades del agregado grueso como son la tenacidad
de las partículas y su resistencia a la abrasión. En el reglamento se lo
considera un método de ensayo de desgaste; en la última revisión de la norma
IRAM se habla de ensayo de fragmentación.
 El ensayo “Los Ángeles” ha mostrado ser un buen estimador del
comportamiento de un agregado frente a la acción conjunta del desgaste y las
acciones de impacto. En nuestro medio se realiza según norma IRAM 1532. El
reglamento admite una perdida máxima, en peso, de 50% para hormigones de
uso general y 30% para hormigones expuestos a abrasión debida al transporte
vehicular intenso, al resbalamiento de materiales a granel y a la erosión por
escurrimiento rápido de agua con elementos en suspensión.
 Procedimiento
 Ensayo “LOS ANGELES”, se realiza dentro de un tambor cilíndrico que gira a
velocidad constante durante un número de vueltas. En el interior del mismo se
coloca el agregado limpio y lavado, junto con una carga abrasiva (esfera de
acero). Se pera el material al inicio y luego del ensayo se separa la muestra
retenida en un tamiz, se lava y se seca a estufa, pesándolo nuevamente. Se
determina la perdida máxima la cual no debe ser mayor al 50 %, para
hormigón convencional.
 Esta es la prueba que más se aplica para averiguar la calidad global
estructural del agregado grueso. Este método establece el procedimiento a
seguir para determinar el desgaste, por abrasión, del agregado grueso, menor
de 1½” (38 mm), utilizando la máquina de Los Ángeles.

 El procedimiento para determinar el desgaste por abrasión de agregado
grueso mayor a ¾“ (19 mm) utilizando la máquina de Los Ángeles, se describe
en la ASTM C-535. El porcentaje de desgaste determinado en ambas
condiciones (ASTM C 131 y ASTM C-535) no es el mismo.
 La muestra consistirá de agregado limpio y debe ser representativa del
material que se vaya a ensayar. Una vez que se alcanza el número requerido
de revoluciones del tambor, se tamiza el agregado para determinar el
porcentaje de agregado que ha sido reducido hasta un tamaño menor que
1.7mm (tamiz Nº12). Excepto en el caso de la escoria siderúrgica, la prueba
parece dar un índice útil de la Integridad estructural global del agregado.

79) Detalle los estados de los agregados con respecto a la humedad y su


absorción, porque es importante?
Agregado seco a masa constante [Asmc]: es el árido secado hasta masa constante en
horno a 110 ± 5 ºC, de manera que se elimine totalmente el agua de sus poros. En
este estado, el árido tiene su máxima capacidad de absorción y corresponde al estado
en el cual el laboratorio efectúa la mayoría de los ensayos. Todos sus poros
comunicados con el exterior están vacíos.
Agregado seco al aire: Agregado cuyas partículas se secan al aire, removiendo toda
su humedad superficial, pero los poros internos comunicados con el exterior están
parcialmente llenos de agua.
Árido en Estado Parcialmente Seco: árido que ha estado expuesto al aire ambiente y
cuyas partículas no tienen humedad superficial, pero en sus poros accesibles existe
humedad parcial que no llega a saturarlos. En este estado los áridos tienen una
capacidad intermedia de absorción, es el estado en que se encuentra la mayoría de
los áridos gruesos en la obra o en el laboratorio.
Agregado saturado a superficie seca [Asss]: Agregado cuyas partículas tienen sus
poros comunicados llenos con agua, pero no existe una película de agua en su
superficie expuesta.
Este estado se obtiene por un proceso controlado de laboratorio:
a) secado en horno a masa constante
b) inmersión en agua por más de 24 horas
c) secado superficial normalizado.
En este estado, el árido no absorbe ni cede humedad.
Agregado húmedo superficialmente: agregado cuya partículas tienen sus poros
comunicados llenos con agua y existe una película de agua en su superficie expuesta.
Las condiciones de Asmc y Asss, corresponden a contenidos de humedad definidos y
reproducidos, que se utilizan como referencia para indicar el contenido de humedad
de un agregado. Los otros dos estados, agregado seco al aire y agregado húmedo
superficialmente, indican alguno de los múltiples contenidos de humedad que puede
tener un agregado en el acopio.
La condición Asss es el “equilibrio” en que se encuentra un agregado incluido en la
masa del hormigón, donde el agregado no aporta ni extrae agua de la pasta. Esta
condición se usa para el proyecto o dosificación de las mezclas de hormigón fresco,
cuyas proporciones de materiales siempre consideran que los agregados están
saturados y con sus superficies secas. Pero ya dijimos que, en los acopios de obra,
los agregados habitualmente no se encuentran en esta situación y se deben corregir
las cantidades a introducir en la hormigonera para tener en cuenta la diferencia entre
el Asss y la masa del mismo Agregado con la humedad natural en el acopio (Ahna).
La humedad que tiene un agregado en el acopio H se mide como la masa de dicho
agregado en estado natural Ahna menos la masa del mismo agregado pero en estado
saturado a superficie seca, expresada en porcentaje [%] de la masa de este último. Si
la diferencia es positiva el agregado tiene humedad superficial que aportara en el
mezclado del hormigón. Si es negativa el agregado está parcialmente saturado y
tomara agua de la mezcla de hormigón.

( A ¿ ¿ hna− A sss )∗100


H= ¿
A sss
Se define la Absorción de un agregado A como la masa de agua necesaria para que
el agregado pase de seco a masa constante saturado con la superficie seca, la cual
se expresa en porcentaje [%] de la nasa del primero [3229].

(A ¿ ¿ sss−A smc )∗100


A= ¿
A smc

Durante el proceso productivo, conocido A podemos pasar fácilmente de A SSSa A smcy


viceversa:
A
A sss= A smc∗(1 ± )
100
80) Estudie como se mezcla gráficamente dos agregados y sepa explicarlos
Se intenta la combinación de agregados para diversos fines, por ejemplo, para
mejorar un agregado con uno de mejor calidad de modo que el agregado combinado
resulte aceptable, o para corregir las deficiencias en la gradación que puedan tener.
Método gráfico: En una gráfica, donde en la parte superior e inferior se marcan
los porcentajes a usar de cada agregado y a la derecha e izquierda los porcentajes
que pasan, como la que se mostrara en el ejemplo que viene a continuación, se
marcan los rangos que delimita la norma para el porcentaje que pasa para cada
tamiz.
I. Se une por una línea el porcentaje que pasa del agregado “A”, a la izquierda
del gráfico, con el porcentaje que pasa del agregado “B”, a la derecha, para los
tamices correspondientes entre sí.
II. Se marca la intersección de esta línea con sus límites superior e inferior, del
rango correspondiente al tamiz. Se repite esto para todos los tamices.
III. La marca con el límite inferior más a la derecha y la marca con el límite
superior más a la izquierda, darán los valores para calcular las
proporciones, en porcentaje, de cada agregado.
IV.Estas dos marcas se prolongan hasta la parte superior e inferior de la gráfica,
obteniéndose dos valores, que se promedian, para obtener el porcentaje a
usar de cada agregado.
Ejemplo: Considérense dos arenas hipotéticas, identificadas a continuación como "A''
y “B", respectivamente. Sus gradaciones individuales que se dan en seguida están
comparadas con los requisitos de la arena para hormigón dados en la ASTM C33.

Ambas arenas, individualmente, no satisfacen los requisitos, por lo que se las


mezclara intentando encontrar las proporciones adecuadas, para entrar dentro de los
requisitos.
44,4+ 35,8
% de A = = 40,15 / aproximadamente 40% de A
2
55,5+64,2
% de B = = 59,85 / aproximadamente 60% de B
2

81) Determine las ecuaciones para determinar el peso en estado seco, el


peso SSS.
Un modo de determinar la densidad relativa de un agregado fino es mediante en
método volumétrico empleando el frasco de Le Chatelier (Normas IRAM 1520). Se
llena con agua el frasco hasta alcanzar en el cuello un nivel comprendido entre las
marcas correspondientes a 0 1cm 3 (V i). Luego se introducen 555 gramos de arena
'
en condición saturada y de superficie seca (m s). Se registra el volumen final
alcanzado en el frasco (V f ). Para obtener el estado m s , el agregado fino se mantiene
sumergido durante 24 hs, luego re retira la muestra del agua y se somete a la acción
de una corriente suave de aire caliente, removiendo la muestra con frecuencia. Se
llena un molde troncónico con arena, y se retira el molde, cuando el cono se
desmorone al sacar el molde, conserve una pendiente suave y adquiera una forma
cónica se ha llegado al estado m s .

Densidad relativa aparente del agregado (d 2):

m
[m' s∗( )]
d 2= ms
[ ( V f −V i )∗d a ]

Densidad relativa aparente del agregado saturado y de superficie seca (d 3):

[m' s ]
d 3=
[ ( V f −V i )∗d a ]

Donde:

 m ' s: Masa en aire de la muestra en condición saturada y de superficie seca, en


gramos
 d a : Densidad del agua a 20°C, en gramos por centímetro cubico

La norma IRAM 1520 contempla otro método para la determinación de las densidades
relativas de las arenas, el método gravimétrico. En la siguiente tabla se indican rangos
de densidades de agregados usados habitualmente en nuestro país, en estado
saturado y superficie seca.
Fuentes:
 Ese Material llamado Hormigón-AATH

82) Que es el tamaño máximo del árido TMAG, y el tamaño nominal


máximo del árido TNMAG.

Tamaño máximo del árido: el tamaño de cedazo más pequeño a través del cual puede
pasar el 100% del material.
Tamaño nominal máximo del árido: es el cedazo de mayor tamaño que retiene parte
del material, pero generalmente no más del 10%.

Bibliografía: Apuntes teóricos.


83) Para qué sirven los análisis granulométrico continuo y discontinuo.

Un análisis granulométrico es continuo cuando existe una variación de tamaños de las


partículas bien graduada.
Contrariamente, es discontinua cuando hay ausencia o exceso significativo de algún
tamaño intermedio de partículas.
Es conveniente el uso de agregados bien graduados para minimizar la cantidad de
vacíos entre las partículas del agregado, que constituye el volumen a llenar con la
pasta cementicia en el caso del hormigón. Por ellos, cada tamaño de agregado debe
ocupar los vacíos dejados por el tamaño inmediato superior.
No obstante, en algunos casos ello suele no ser posible por el emplazamiento de la
obra y las posibilidades de abastecimiento de materiales. En esos casos, los
agregados discontinuos dan lugar a hormigones trabajables si sus granulometrías
están dentro de los límites especificados. Aunque requieren de mayor volumen de
pasta cementicia.
Granulometrías Continuas
Un número importante de ensayos han permitido establecer granulometrías con las
que se obtiene la máxima resistencia a compresión y la máxima compacidad del
hormigón. Estas curvas granulométricas son denominadas curvas ideales. Se debe
tener en cuenta que los factores principales que rigen la granulometría deseada del
agregado son: la superficie del agregado, que determina la cantidad de agua
necesaria para humedecer todos los cuerpos sólidos; el volumen relativo ocupado por
el agregado; la trabajabilidad de la mezcla; la tendencia a la segregación.
El interés de que el agregado ocupe un volumen relativo tan grande como sea posible
tiene un carácter económico, pues el agregado es más barato que la pasta de
cemento. Se ha supuesto también que al crecer la cantidad de partículas sólidas que
pueden empacarse en un volumen dado de hormigón se eleva su resistencia. Esta
teoría de densidad máxima ha llevado a utilizar curvas granulométricas de forma
parabólica, como las de Fuller, cuya expresión matemática está en función de “Ø”
(abertura de la malla correspondiente al tamiz “i”) y del tamaño máximo del agregado.
Ø
% que pasa en tamiz“ i”=100 √( )
T max
Otra curva utilizada es la parábola de Bolomey, donde “Ø” es la abertura de la malla
correspondiente al tamiz “i”, “Tmax” es el tamaño máximo del agregado y a es un
parámetro que depende de la consistencia del hormigón y del tipo de agregado
utilizado.

Ø
% que pasa en tamiz “i” = a + (100 – a) √ ( )
T max
Curvas de Fuller y Bolomey

Estas experiencias han llevado a desechar el empleo de las curvas ideales


reemplazándolas por franjas granulométricas, criterio ha sido adoptado por los
reglamentos (figuras A y B).

Figura A

Figura B

Además debe recordarse el problema económico, ya que el hormigón debe elaborarse


con materiales disponibles y de producción barata, de modo que no es conveniente
imponer límites estrechos a la granulometría de los agregados. Si los agregados no
verifican los límites especificados no implica que los mismos no puedan emplearse en
la elaboración de un hormigón, sino que se requiere más pasta y será más propenso a
segregarse.
Hay que mencionar, sin embargo, la importancia de la graduación sobre la
trabajabilidad de la mezcla y en la terminación del hormigón. La curva granulométrica
a adoptar para las arenas depende de la forma y la textura de las partículas. Una
arena de partículas lisas y redondeadas, puede dar resultados satisfactorios con una
granulometría más gruesa que la que podría permitirse para una arena de partículas
angulosas y con superficies ásperas (arena triturada).
Granulometrías Discontinuas
Se definen como granulometrías discontinuas aquellas en las cuales se omite uno o
más tamaños intermedios de partículas. Pueden ser empleadas para elaborar
hormigones más económicos cuando es necesario combinar agregados para obtener
curvas continuas. Sin embargo, esta falta de tamaño puede ocasionar severos
problemas de segregación en mezclas con alta trabajabilidad. Por tal motivo, se
recomienda su empleo en hormigones muy consistentes. En una pila de partículas
redondeadas de igual tamaño “d1” siempre existe contacto entre las mismas y el
volumen de vacíos es independiente del diámetro, ya que depende exclusivamente de
la disposición de los centros. Para una disposición cúbica el volumen de vacíos es
igual al 47,60 % y para la disposición octaédrica o tetraédrica es igual al 25,90 %. El
contacto entre las partículas queda impedido cuando actuar partículas “separadoras”.
El efecto separador dependerá de la disposición de las partículas y del diámetro de
las partículas separadoras. Existen otras partículas denominadas de “relleno y
escurridizas”.
En la figura se esquematiza la disposición de las partículas mencionadas. Con los
métodos convencionales de colocación pueden entonces, emplearse curvas
granulométricas discontinuas en las que falten una o más fracciones, siendo estas las
que corresponden a los tamaños comprendidos entre el de las partículas principales y
el de las de relleno. La curva granulométrica discontinua, a pesar de lograr
hormigones con buena compacidad y resistencia, disminuye la docilidad de la mezcla
con respecto a las curvas continuas.

Disposición de las partículas

Mezcla de agregados
Importancia de una granulometría continúa
Muchos investigadores llegaron a la conclusión que lograda la máxima compacidad se
podían obtener hormigones de buena calidad, así surgen las curvas granulométricas
ideales de Fuller, Bolomey y otros que tratan de acercarse a tal condición.
Asociando la compacidad con el mayor tamaño máximo compatible con la estructura y
lo
Obtenible en yacimientos (condición que nos daría la menor superficie específica) y
con una excelente granulometría, podemos decir que solucionamos uno de los
factores de mayor importancia que conducen al logro de un hormigón de calidad.
La granulometría de los agregados influye sobre:
a) trabajabilidad de la mezcla fresca
b) resistencia mecánica
c) resistencia a los agentes climáticos
d) resistencia química
e) economía
De allí la importancia de lograr granulometrías compactas. En general podemos decir
que para cada tipo de obra, existe una granulometría característica u óptima.
La necesidad de lograr una granulometría deseada, o que se encuentre dentro de
entornos granulométricos establecidos, induce a las mezclas de dos o más
agregados, de tal forma que el aporte de éstos en el total conforme una granulometría
próxima a la buscada.

Bibliografía:
-Apunte de la UNIVERSIDAD TECNOLOGICA NACIONAL
Facultad Regional Santa Fe: ROCAS Y AGREGADOS PARA HORMIGONES
-Hormigón de Alberto Giovambattista
84) RESOLVER: ÁRIDOS GRUESOS DE DOS MONTONES QUE TIENEN UNA
ANGULARIDAD DE ÁRIDO GRUESO (CARAS TRITURADAS) DEL 40% Y EL 90%,
RESPECTIVAMENTE, SE MEZCLAN CON UNA RELACIÓN DE 30:70 SEGÚN
PESO ¿CUÁL ES EL PORCENTAJE DE CARAS TRITURADAS EN LA MEZCLA DE
ÁRIDOS?

Porcentaje de caras trituradas en la mezcla de áridos = (0.30x0.40+0.70x0.90)*100 =


75%
85) Desarrolle sobre las sustancias nocivas en los áridos:

Los agregados no deben contener sustancias que provoquen alguno de los siguientes
efectos:
 Cambio significativo del volumen de la pasta, agregados o ambos.
 Interferencia en la hidratación normal del cemento.
 Corrosión de las armaduras de acero y otros efectos secundarios que puedan
ser perjudiciales para el hormigón.
Por lo tanto se puede decir que los agregados deben cumplir con las siguientes
condiciones:
a) Tiene que ser un material limpio, libre de impurezas, no tenga ninguna capa
externa que dificulte la adherencia del agregado con la pasta cementicia.
b) Suficientemente resistente para el hormigón a diseñar.
c) Estable, en cuanto a su durabilidad que no se degrade con el transcurso del
tiempo.
d) Resistente al fuego.
e) No ser permeables, tienen cierta impermeabilidad (limite 4,5%).
f) Carecer de grietas.
g) No poseer material orgánico.

Que inconveniente puede tener el material que pasa por el tamiz N°200.

Los más finos que 75micrometros, especialmente limo y arcilla pueden estar presente
como polvo suelto y/o adheridos a las partículas de los agregados.
Estas partículas tienen una elevada superficie específica, especialmente si se trata de
arcillas. Cuando los agregados las incorporan al hormigón en cantidad excesiva,
producen un aumento del agua de mezclado necesaria para lograr la misma
trabajabilidad. Esto a su vez, aumenta la contracción por secado y la fisuración del
hormigón endurecido, por otra parte el material fino adherido a las partículas de
agregado grueso disminuye su adherencia con la pasta de cemento y por
consiguiente la resistencia del hormigón.

Que inconveniente puede traer los terrones de arcilla y partículas


blandas.

Los terrones de arcilla y las partículas blandas pueden provenir del propio yacimiento
o haberse incorporado durante su explotación. Poseen resistencia menor que la
mayoría de las partículas que constituyen el agregado y eso puede afectar la
resistencia estructural, el desgaste superficial y la durabilidad del hormigón que los
contiene.

Que inconveniente puede traer el chert, conchillas, materia carbonosa,


cloruros, sulfatos y materia orgánica.

Chert: se forma por la precipitación de sílice soluble en las rocas sedimentarias.


Desde un punto de vista de su composición mineralógica, está constituido por una
mezcla de cuarzo pobremente cristalino, calcedonia y ópalo.
Esas partículas porosas no resisten los ciclos de congelación y deshielo, incorporadas
a hormigones sometidos a esos ciclos producen reventones y fisuras en la superficie
del hormigón que se encuentra por encima de las partículas.

Conchillas: en el hormigón producen aumento de la demanda de agua, disminución


de la trabajabilidad de la mezcla fresca y disminución de la resistencia.

Materias carbonosas: se originan por contaminación durante el transporte de los


agregados. Son partículas de carbón mineral o lignito, que se pueden desintegrar
durante el manipuleo o en servicio, causando manchas sobre las superficies
expuestas del hormigón.

Cloruros: estos incorporados al hormigón afectan su fraguado, aumentan la


contracción por secado y causan eflorescencia en las superficies expuestas, también
provocan corrosión en las armaduras. Los excesos de cloruros se pueden eliminar por
lavado con agua dulce.

Sulfatos: su presencia puede modificar el equilibrio entre los aluminatos y el yeso del
cemento, y afectar el fraguado del hormigón. También puede incidir en la durabilidad
del hormigón.
Materia orgánica: provienen de la descomposición de vegetales, según su naturaleza
pueden retrasar el fraguado y el desarrollo de la resistencia del hormigón. Y en caso
particular de los azucares llegan a impedir el fraguado.

86) Que son los materiales cementicios o cementosos ; aéreos, e


hidráulicos
Los materiales cementicios o cementantes son los que potencialmente pueden
endurecerse y adherirse a otros conformando una masa sólida única(utilizan para
unirse con otros materiales o con sí mismos y volverse símil piedra). Si bien distintos
materiales poseen esta propiedad, los utilizados en la construcción son: cal, yeso y
cemento. Podemos clasificarlos en:

 Materiales cementantes aéreos: son aquellos aglomerantes o conglomerantes


que no pueden existir o endurecer en el agua, endurecen y existen en el aire.
Ejemplo: Cal aérea.

 Materiales cementantes hidráulicos: son aquellos aglomerantes o


conglomerantes que pueden existir y/o endurecer en el agua. Ejemplo: cales
hidráulicas y los cementos, se incluyen las puzolanas, que aunque por si solas
no endurecen o fraguan, si se mezcla con cales, dan productos hidráulicos.

Fuente: Apuntes de Teoría.


87) Desarrolle investigando acerca de los cementos aluminosos, sus
propiedades, sus características y usos.
El cemento aluminoso, también denominado Cemento de Aluminato de Calcio (CAC),
es un tipo de conglomerante hidráulico que se obtiene por la fusión de una mezcla de
caliza y bauxita en determinadas proporciones, pulverizando el producto resultante,
que deberá tener más del 32% de alúmina y menos del 20% de óxido de hierro.
Suele tener un color muy oscuro y una gran finura de molido, es de una gran
estabilidad de volumen. La duración del fraguado es análoga a la del Cemento
Portland, es decir, lenta, puesto a que no empieza hasta un par de horas después de
haber sido amasado.
Sus propiedades más interesantes son la resistencia a corto plazo, a los ataques de
ácidos y a los ambientes agresivos (sulfatosos y marinos). Las reacciones del
fraguado del Cemento Aluminoso desprenden mucho calor, por lo que también son
importantes para hormigones en zonas muy frías.
En este cemento se puede producir la aluminosis (que se puede dar cuando existe un
ambiente continuado de humedad y la temperatura es elevada, más de 25°C) en la
que se produce la conversión de aluminatos hexagonales en cúbicos, afectando dicha
transformación a la porosidad y resistencia de mecánica: el hormigón se vuelve más
poroso y la resistencia puede llegar a reducirse hasta un 75%.
Si se da la conversión del Cemento Aluminoso y además se produce la carbonatación
(reacción del dióxido de carbono del aire con la parte alcalina del cemento dándose
una reducción del ph) en presencia de humedad se facilita la corrosión provocando los
daños que se mencionaron anteriormente e incluso el colapso de la estructura por la
pérdida de sección de las armaduras.
Usos por sus características
El cemento aluminoso por sus propiedades refractarias, produce hormigones muy
resistentes al calor (hasta 1500°C), por lo que se emplea en construcciones que
tengan que soportar altas temperaturas.
Durante su fraguado, se produce una alta reacción hexotérmica (desprende calor),
que puede alcanzar los 35°C en función de la geometría de los elementos
hormigonados, temperatura y humedad ambiente. Por esto, es útil a bajas
temperaturas, pero en climas muy cálidos deben extremarse las precauciones y
controlar el fraguado.
Debido a la alta resistencia mecánica que alcanza al cabo de pocas horas del
hormigonado, se puede decir que es muy rentable para la ejecución de prefabricados,
de modo que los moldes podían utilizarse con mayor rapidez. También en obras
donde los sistemas de encofrado eran costosos, permitían el rápido desmoldeo y
desapuntalamiento con el consiguiente aprovechamiento de los medios auxiliares. El
fraguado completo se produce en un tiempo inferior a 7 días, aunque dentro de las
primeras 24 horas alcanza su resistencia final.

Fuentes:
https://www.construmatica.com/construpedia/Cemento_Aluminoso
https://www.patologiasconstruccion.net/2012/11/la-aluminosis-al-descubierto-i-
cementos-aluminosos/
88) DESARROLLE INVESTIGANDO ACERCA DE LOS CEMENTOS DE TIPO
EXPANSIVOS, SUS USOS , DE DETALLE DE SU QUIMICA, Y SUS
PROPIEDADES.

El cemento expansivo es un cemento hidráulico que se expande ligeramente


durante el inicio del periodo de endurecimiento, después del fraguado. Este cemento
debe estar de acuerdo con los requisitos de la ASTM C 845, en la cual está designado
como el tipo E.
Composición química
Se reconocen tres variedades de cemento expansivo, llamadas de K, M y S, las
cuales se añaden como sufijo al tipo. El tipo E-1(K) contiene cemento portland,
trisulfoaluminato tetracálcico, sulfato de calcio y óxido de calcio no combinado (cal). El
tipo E-1(M) contiene cemento portland, cemento de aluminato de calcio y sulfato de
calcio. El tipo E-1(S) contiene cemento portland con alto contenido de aluminato
tricálcico y sulfato de calcio. El tipo E-1(K) es el cemento expansivo más disponible
comercialmente en los EE.UU.
Propiedades
-Resistencia
Estos cementos al estar confinados aumentan su resistencia debido al aumento de
la presión en función del aumento de volumen.

-Temperatura de curado
Si la temperatura del agua de curado aumenta la pasta de cemento alcanza su
expansión en un  menor tiempo y en menor magnitud.
-Los cementos moderadamente expansivos se prepararon por mezcla de un 00 a
un 84 % de cemento portland, un 6 % de yeso y un 4 a un 10 % de cemento
aluminoso. Los componentes que provocan la expansión en el cemento cuando están
presentes en gran cantidad son la cal calcinada a muerte, la magnesia calcinada a
muerte y el sulfato cálcico.

Usos
-Compuesto demoledor no explosivo
Debido a la expansión de este tipo de cemento se generan grandes fuerzas de
tensión sobre la superficie del elemento que lo contenga, usándose como un agente
demoledor no explosivo (idea tomada de procesos naturales de meteorización en los
que interviene el agua y sales minerales).
-Concreto de retracción compensada
Al pasar del estado plástico al estado endurecido la pasta de cemento presenta
contracciones causadas por la rápida evaporación del agua en la pasta o una mala
proporción agregado-cemento. Esta contracción aumenta en relación a la superficie
expuesta al aire, como es el caso de pisos y muros.
-Se lo encuentra en represas con fisuras, en sistemas industrializados con
construcción de panelería.

Bibliografía: Apuntes teóricos


http://cementoexpansivo.blogspot.com.ar/
http://notasdeconcretos.blogspot.com.ar/2011/04/normal-0-21-false-
false-false.html
89) Desarrolle investigando acerca de los cementos con incorporación de
escorias de altos hornos, su química, sus propiedades y usos.
La escoria es un subproducto de la fabricación de acero en alto horno. Se origina en
fase liquida simultáneamente con el acero. La escoria fundida a cerca de 1500°C se
enfría rápidamente para lograr un material granulado vítreo. Este material es molido.
La densidad relativa para la escoria granulada de alto horno molida es de 2,85 a 2,95
y la masa unitaria varia de 1050 a 1375 kg/m3. Sus partículas tienen forma angular y
superficie aspera.
La proporción relativa de CaO-SiO2-Al2O3 en la escoria varia entre limites muy
estrechos, que además son similares a los del Clinker. Ello se debe a condiciones de
equilibrio de fase propias de alto horno. Las cantidades de AL2O3 y MgO pueden
variar, dependiendo del fundente utilizado en el alto horno, pero ello usualmente no
afecta significativamente a las reacciones de hidratación del material cementicio.
Cuando la escoria se mezcla solamente con agua no se hidrata, y si se agrega
cemento tampoco se combina directamente con el CH liberado por los C3S y C2S. El
mecanismo de reacción de la escoria requiere un activador, tal como NaOH, CaOH o
sulfato. El cemento Portland es un buen activador pues aporta los tres compuestos
mencionados. En presencia de ellos, la sílice vítrea se ataca y alrededor de sus
partículas se forma un gel acido que luego se combina con el CH para formar silicatos
y sulfoaluminatos de calcio hidratados.
C3S2 + H2O ---- C-S-H
Escoria granulada de AH + Agua ---- Silicato de calcio hidratado
Su composición, SiO2, CaO y A2O3, y el mecanismo de reacción permiten fabricar
cementos con la adicion de hasta 80% de escoria granulada de alto horno. La
demanda de agua generalmente no se modifica, excepto cuando la escoria es muy
fina; puede producir mayor contracción, es muy empleada cuando existen problemas
de durabilidad en medios con sulfatos pero siempre es necesario verificar su
efectividad.
Fuentes:
HORMIGON- Alberto Giovambattista

90) Desarrolle investigando acerca de los cementos con incorporación de


puzolanas , sus propiedades , características, química y usos.
Materiales puzolánicos: Se aplica este nombre a los materiales naturales silíceos o
sílico-aluminosos, que por sí solos no poseen capacidad cementante significativa,
pero que molidos finamente y en presencia de agua, reaccionan químicamente con el
hidróxido de calcio, a temperatura ambiente, para formar compuestos con
propiedades cementicias (ASTM C 618). Estas características pueden darse en el
material de origen con sólo molerlo como es el caso de las cenizas volcánicas y sus
tobas y algunas tierras de diatomeas, o adquirirse mediante una calcinación
moderada como ocurre con algunas arcillas.
Esquemáticamente, la reacción puzolánica puede indicarse como:

Material puzolánico + CH + H = C-S-H

que corresponde, en una mezcla de cemento pórtland puro con puzolana o en un


cemento puzolánico, al siguiente esquema:
Cemento pórtland puro + material puzolánico + agua = C-S-H + sulfoaluminatos
Es importante destacar que en el hormigón, la reacción puzolánica no agota la
disponibilidad de CH, con lo cual el líquido de los poros mantiene un PH alcalino. Esto
es necesario para mantener la estabilidad de los silicatos y para evitar la corrosión de
las barras de acero que constituyen las armaduras.
En general, la adición de una puzolana mejora algunas propiedades del hormigón:
disminuye el calor de hidratación y la permeabilidad, reduce la susceptibilidad al
ataque ácido al disminuir el CH y mejora la resistencia a la reacción álcali-sílice. Como
contrapartida, el desarrollo de resistencia es más lento y se requiere aumentar el
período de curado para lograr la resistencia de diseño.
Las puzolanas pueden incrementar el requerimiento de agua del hormigón, como
así también la contracción por secado y la fluencia lenta del hormigón. Las
características superficiales, la forma y el tamaño de las partículas, son determinantes
de la mayor o menor demanda de agua del hormigón y difieren notablemente entre los
distintos tipos de adiciones minerales e incluso para un mismo tipo de adición. Por ello
es importante destacar que no se puede generalizar el efecto específico que una
puzolana provoca en el hormigón sino que cada caso debe ser estudiado
cuidadosamente.
Dentro del grupo de las puzolanas podemos incluir: cenizas volcánicas y sus
tobas, las tierras de diatomeas, las cenizas volantes, los humos de sílice, las arcillas
activadas y la cáscara de arroz calcinada.

Bibliografía: Hormigón de Alberto Giovambattista.

91) Desarrolle investigando acerca del cemento supersulfatado, sus usos,


caracteristicas ,propiedades y quimica.
El cemento supersulfatado (CSS) está compuesto de escoria granulada de alto horno
(egah) molida activada mediante una fuente sulfática, principalmente yeso o anhidrita;
se usa cuando el concreto está expuesto al ataque de ácidos débiles y sulfatos. Su
desarrollo de resistencia se reduce a bajas temperaturas. No debe usarse en
proporciones menores a 310 kg/cm3. Debe ser manejado igual que el cemento
portland común pero con 5 minutos más de mezclado. En comparación con la
fabricación de cemento portland, no se precisa de ningún Clinker adicional. Por ello el
volumen de emisiones de CO2 puede reducirse significativamente utilizando este
cemento. El CSS comenzó a emplearse como conglomeradodebido a una escasez de
cemento Pórtland después de la segunda guerra mundial. Sin embargo, una nueva
investigación de la que se informa en este artículo muestra que el concepto de
cemento de escoria activada mediante sulfatos supone una buena oportunidad para
reducir las emisiones de CO2 y producir un conglomerante con aplicaciones prácticas
92) Que es la cal aerea, indique sus propiedades, como se fabrica, como se
endurece , y como se comercializa, diferencia entre carbonato de calcio, cal
aérea viva, cal aérea apagada o cal hidratada, y cal hidráulica.

La Cal: La cal aérea se compone de óxido de calcio (Se denomina así porque no
endurece dentro del agua) Su origen proviene de rocas calcáreas que se encuentran
en la naturaleza. Es la cal que, con el agregado de agua, produce una pasta
constituida en su mayor parte por hidróxido de calcio e hidróxido de magnesio, que
endurece en contacto con el aire.

Fabricación: Se fabrica a partir de piedras trituradas que contengan carbonato


cálcico, en porcentajes superiores al 95%, calcinadas por encima de 1000°C. Como
resultado de esta cocción se obtiene cal viva (óxido de calcio).
 Extracción de la piedra: se hace a cielo abierto o en galería,
fragmentándola al tamaño de guijarros. se lo dinamita y se lo troza con un
espesor máximo de 30 cm.
 Calcinación: se practica de distintas formas, según los medios y materiales
de que se dispone. La temperatura que hay que alcanzar es superior a
900ºC. eliminándose rápidamente el CO2 por aspiración, ya que la
reacción es reversible: El de Teil de forma oval, de unos m de altura y de
diámetro mayor, disminuyendo éste en la boca o tragante y en la parrilla, la
cual está constituida por un cono sobre un cilindro, para facilitar la
descarga. Se echan capas alternadas de la caliza margosa y carbón de
llama corta, antracita. Las paredes están provistas de ladrillo refractario y
camisas aislantes, para evitar las pérdidas de calor por radiación y
obtención de cal de mayor calidad.´
 El producto resultante de la descomposición por el calor de las rocas
calizas. Si éstas son puras y se calientan a temperatura superior a 900ºC
se verifica la siguiente reacción:

El carbonato cálcico CaCO3 se descompone dando anhídrido carbónico CO 2 que


es gaseoso y se desprende junto con los humos del combustible y el óxido de calcio
CaO.
Al óxido de calcio se le llama también cal viva siendo un producto sólido, de
color blanco, amorfo aparentemente
La calcinación pude ser:
 Calcinación al aire libre con llama.
 Calcinación al aire libre por capas.
 Calcinación en hornos intermitentes.
 Calcinación en hornos continuos con llama.
 Calcinación en hornos continuos por capas.

 Apagado de la cal: Para poder emplear la cal viva hay necesidad de ponerla en
contacto con el agua, para que se hidrate, y esta operación recibe el nombre
de “apagado de la cal”. Existen distintos procedimientos para apagar la cal
aérea y con la que reacciona de la siguiente manera:

Produciéndose hidróxido cálcico o cal apagada, desprendiendo calor,


elevándose la temperatura a unos 160ºC, pulverizándose y aumentando
considerablemente de volumen aparente. Existen diversas formas de apagar la cal
algunas de estas son:
 Apagado espontáneo al aire: consiste en extender los terrones de cal
viva sobre una superficie plana resguardada de la lluvia, para que
absorba el vapor de agua de la atmósfera. Es un proceso que requiere
de unos tres meses. Tiene el inconveniente de que absorbe también el
anhídrido carbónico, carbonatándose en parte, por lo cual no da buenos
resultados.
 Apagado por aspersión: se riega con regadera, la cal extendida sobre
una superficie, siendo conveniente recubrirla con arena para que se
apague lentamente fuera del contacto con el aire.
 Apagado por inmersión: se introduce la cal un minuto en agua hasta
que se produzca un principio de efervescencia.
 Apagado por fusión: se introducen los terrones en un cráter practicado
sobre arena y se vierte tres veces su volumen de agua, y en mayor
proporción si ha de ser lechada.
 Apagado en autoclaves: se utiliza en EEUU, inyectando vapor de agua
a presión, obteniéndose cal plástica excelente para enduidos.

 Endurecimiento: Ya como se dijo anteriormente cal aérea es aquella que


necesita la presencia de aire para carbonatar y endurecer. Es una cal que se
combina y endurece con el dióxido de carbono presente en el aire. Cuando se
amasa y se mezcla con agua(Cal apagada), forma una pasta que mejora la
trabajabilidad (características de escurrimiento y penetración) y la retención de
agua de los morteros. La cal apagada en pasta tiene la propiedad de
endurecerse lentamente en el aire, enlazando los cuerpos sólidos, por lo cual
se emplea como aglomerante. Este endurecimiento recibe el nombre de
fraguado y es debido primeramente a una desecación por evaporación del
agua con la que se formó la pasta y después, a una carbonatación por
absorción del anhídrido carbónico del aire:

Formándose carbonato cálcico y agua, reconstituyendo la caliza de la cual se


partió. Esta reacción es muy lenta, comienza a las 24 horas de amasar la pasta y
termina al cabo de los 6 meses, por lo que las obras en que se emplea tardan mucho
en secarse y adquirir la solidez definitiva. Al fraguar experimenta una contracción o
disminución de volumen, que unida a la que experimenta por el peso propio de la
obra, produce asientos y grietas.

Comercialización y usos principales de la cal aérea: Se utiliza para revoque fino y


grueso, en lugares donde haya contacto con el aire, donde no haya peligro de
condensación de humedad en los bordes, No se debe usar en componentes
estructurales. Le da elasticidad a los materiales.
Se comercializa, en polvo en bolsas de 20 kg y granel:
 Cal apagada en polvo;
 Tipo lechada de cal.

 Cal viva, en terrón o en polvo


 Cal apagada(hidrato cálcico), en polvo o en pasta
 Cal hidráulica y eminentemente hidráulica (cales totalmente apagadas)

Carbonato de calcio: Es aquel mineral que se encuentra en su estado natural sin


haber sido alteradas, es decir sin someterse a grandes temperaturas y sin reaccionar
con el agua ( CaCO3).
Cal aérea viva: Son aquellas que solo se endurecen al aire, y se obtiene de la
descomposición por calor de la Piedra Calcárea al elevar su temperatura entre 1000 y
1200ºC se descompone y se obtiene anhídrido carbónico CO2, que es gaseoso y se
desprende junto con los humos del combustible y el óxido de calcio CaO también
llamado cal viva(CaO).
Cal aérea apagada o hidratada: Son aquellas que se endurecen lentamente en el aire
y se obtiene de la reacción del óxido de calcio (CaO) (cal viva) con agua
produciéndose el hidróxido de calcio (cal apagada) que es un cuerpo sólido, blanco,
amorfo, pulvurento, algo soluble en agua (es lo que se conoce como lechada). Este
proceso es exotérmico dando lugar a un gran desprendimiento de calor (15600 cal/gr)
y aumentando un 20 % el volumen del material(Ca (OH)2 ).
Cal hidráulica: Son aquellas sales que contienen más del 10% de ácidos solubles. Se
endurecen tanto al aire como bajo la acción del agua o de la humedad, alcanzan más
rápidamente resistencias superiores a la de las cales aéreas y casi exclusivamente
cales en polvos que se sirven en sacos debidamente marcados. Deben seguirse con
detalle todas las reglas para su preparación puesta en obra.

93) Qué es el yeso, indique sus propiedades, cómo se presenta en la


naturaleza, qué tipos de yeso se obtienen a distintas temperaturas, cómo
va aumentando su resistencia, cómo se comercializa, cómo endurece.
El yeso, sulfato cálcico, puede encontrarse en la naturaleza en forma de piedra yeso.
Es considerado el “gusano” del cemento, no se llevan bien. Requiere de un proceso
térmico para ser aglomerante. El proceso consiste en machucar hasta reducirla a
polvo, y luego someter la piedra a una cocción de 130°-150°, en la que pierde una
molecula y media de agua, tomando dos formas alotrópicas: la forma A de estructura
cristalina y compacta, o la forma B, mas esponjosa que la anterior.
Proceso

El yeso natural, o sulfato calcico bihidrato (CaSO 4 .2 H 2 O ¿, está compuesto por


sulfato de calcio con dos moleculas de agua de hidratacion.
Si se aumenta la temperatura hasta lograr el desprendimiento total de agua,
fuertemente combinada, se obtienen durante el proceso diferentes yesos empleados
en construcción, los que de acuerdo con las temperaturas crecientes de
deshidratación pueden ser:

 Temperatura ambiente: bihidrato SO 4 Ca ( H 2 O )2, dos moléculas de agua


 128 a 180: el semihidrato, con media molecula de agua ( SO 4 Ca1/2 H 2 O ); este
semihidrato fragua rápidamente, hay que agregar retardadores; tenemos el
alfa y el beta (que se obtiene a presión normal y 150 grados), el alfa a 1,3 atm
y 125 grados, mejor calidad y resistencia hasta 400 kg /cm2.
 180 a 300: yeso tipo gamma, es una anhidrita soluble, muy higroscópico, se
llega a la deshidratación total del yeso y, con agua, fragua inmediatamente,
con vapores de agua, se obtiene el semihidrato, se le agrega queratina para
retardar el endurecimiento.
 300 a 600:el beta, anhidrita insoluble, o yeso muerto, reacciona muy
lentamente con el agua, carece de propiedades cementantes, resistencia a la
compresión de 200 kg /cm2.
 900 a 1000: yeso hidráulico, fragua lentamente, se necesita 35% a 40% de
agua para amasarlo, bajo agua endurece a las 48 hs, en el aire a las 5 hs o
mas.
 1450: es la temperatura de fusión del yeso, el SO 4 Ca se descompone en
SO3+CaO
Los yesos de construcción se pueden clasificar en:
 Artesanales, tradicionales o multi-fases
 El yeso negro es el producto que contiene más impurezas, de grano
grueso, color gris, y con el que se da una pequeña capa de enlucido.
 El yeso blanco con pocas impurezas, de grano fino, color blanco, que
se usa principalmente para el enlucido más exterior, de acabado.
 El yeso rojo, muy apreciado en restauración, que presenta ese color
rojizo debido a las impurezas de otros minerales.
 Industriales o de horno mecánico
 Yeso de construcción (bifase)
Grueso
Fino
 Escayola, que es un yeso de más calidad y grano más fino, con pureza
mayor del 90%
 Con aditivos
 Yeso controlado de construcción
Grueso
Fino
 Yesos finos especiales
 Yeso controlado aligerado
 Yeso de alta dureza superficial
 Yeso de proyección mecánica
 Yeso aligerado de proyección mecánica
 Yesos-cola y adhesivos
La comercialización se realiza a granel, o embolsado en forma semi-hermética, para
evitar el acceso de humedad que pueda alterar el producto.
Fuentes:
 http://es.wikipedia.org/wiki/Yeso
 http://www.construmatica.com/construpedia/Yeso
 http://www.yesosproinsa.com/yeso1.html
 Apuntes de Clase Teórica

94) Que es el cemento portland, como se lo fabrica, via seca y vía


húmeda, sus propiedades, sus
Componentes químicos y características de sus componentes minerales,
como se comercializa
a. C3S
b. C2S
c. C4AF
d. C3A
e. Sustancias libres

Cemento: El cemento portland es un conglomerante que es pulverulento,


generalmente de color gris a gris verdoso, compuesto por minerales artificiales
(principalmente silicatos y aluminatos de calcio), que reaccionan con el agua
químicamente para formar un material de buenas propiedades aglutinantes , dando
lugar a nuevos productos capaces de impartir a la mezcla endurecida resistencia y
rigidez, asemejándola a una roca. Es el más usual en la construcción y es utilizado
como aglomerante para la preparación del hormigón. Es el producto obtenido por
molienda del Clinker portland, con la eventual adición de pequeñas cantidades de
sulfato de calcio. El Clinker está compuesto por cuatro fases principales:

 silicato dicálcico

 Silicato tricalcico

 aluminato de calcio
 ferroaluminato de calcio

También existe cantidades menores de cal libre, oxido de magnesio, oxido de sodio
y oxido de potasio.

Fabricación: La fabricación del cemento se puede dividir en cuatro etapas


fundamentales:

 Proceso Mecánico: que consiste en la extracción de materias primas, su


trituración, pre homogeneización, molienda y homogeneización cuyo fin es
producir la harina cruda.

 Proceso Térmico y químico: que consiste en la precalcinacion, calcinación de la


harina cruda y el posterior enfriamiento brusco, obteniendo el Clinker.

 Proceso mecánico de molienda: del Clinker junto con el regulador de fraguado y


las adiciones minerales, con que se obtienen los distintos tipos de cemento de
base portland.

 Expedición del cemento.

Durante su procesamiento industrial la materia prima debidamente preparada es


calentada en hornos hasta alcanzar la temperatura en la que se completa la formación
de los silicatos de calcio (Temperatura de clinkerizacion: 1400 – 1550 ºC). Luego es
necesario producir un rápido enfriamiento del material, para que los compuestos
resultantes sean hidráulicos. Así se obtiene el Clinker de cemento cuyas partículas
varían entre 6 y 50 mm. El Clinker ingresa al molino donde se le adiciona alrededor de
un 5% de yeso y es molido hasta alcanzar la finura requerida al producto final. En esta
etapa también se incorporan las diversas adiciones que pueda incluir el cemento. El
producto final es trasladado a silos de almacenamiento desde donde posteriormente
podrá ser despachado a granel o embolsado, envasado en bolsas de papel o en
grandes bolsones denominados big bags de 1 o 2 tn.
Vía Húmeda: Los materiales se mezclan con agua en la forma de lechada. En el
proceso vía húmeda es posible realizar un control eficaz de la composición de la
mezcla mediante el análisis químico tradicional y la corrección de la proporciones de
los barros o crudo antes de enviarlos al horno. Así se mejoró la calidad del cemento
pero aumento el consumo de energía al tener que eliminar el agua incorporada
durante la homogeneización. antes de que se desarrollen los procesos de calcinación
y clinkerización.
Vía Seca: Se agrega, antes del horno, un elemento vertical intercambiador de calor
donde los polvos finos ingresan a contracorriente de la salida de los gases calientes
del horno. Allí se produce el primer calentamiento de la materia prima aprovechando
el calor d los gases que se eliminan. También se logra que los polvos muy finos
arrastrados por los gases vuelvan al horno junto con la materia prima que ingresa.
Este proceso disminuye la posibilidad de reducir el contenido de óxidos de sodio y
potasio que suelen ser perjudiciales para el hormigón.
Componentes: Cada uno de los componentes del cemento posee características
propias que le confieren al mismo propiedades diferentes, tanto en lo relacionado con
el proceso de hidratación como con el comportamiento de la pasta de cemento
endurecida, básicamente su resistencia y durabilidad. El cemento portland puro surge
de la molienda conjunta del Clinker y el yeso. El Clinker está compuesto por cuatro
fases principales o componentes que son los silicatos dicálcico y tricálcico, el
aluminato de calcio y el ferroaluminato de calcio. También existen cantidades
menores de cal libre (CaO), óxido de magnesio libre (MgO), oxido de sodio (Na2O) y
el óxido de potasio (K2O), acompañados por otros elementos en menor proporción.
Para obtener el cemento se agrega yeso al Clinker, habitualmente en la forma de
sulfato de calcio bihidratado (CaSO4.2H2O).

Composición Química: Está constituido por óxidos principales y óxidos menores.

Composición Mineralógica: El cemento portland puro surge de la molienda


conjunta del Clinker y el yeso. El Clinker está compuesto por cuatro fases principales
o componentes que son los silicatos dicálcico y tricálcico, el aluminato de calcio y el
ferroaluminato de calcio. También existen cantidades menores de cal libre (CaO),
óxido de magnesio libre (MgO), oxido de sodio (Na2O) y el óxido de potasio (K2O),
acompañados por otros elementos en menor proporción. Para obtener el cemento se
agrega yeso al Clinker, habitualmente en la forma de sulfato de calcio bihidratado
(CaSO4.2H2O).

1. C3S, Alita: ocupa un 45% del cemento, temperatura de hidratación


120cal/gr, colabora con la resistencia temprana (a los 7 días
alcanza su máxima resistencia).

2. C2S, Belita o Belit: 25% del material, su resistencia son en épocas


más mediatas (6 meses a un año), temperatura de hidratación
60cal/gr

3. C4AF, Celit, Celita o Ferroaluminatotetracálcico: constituye el 12%,


temperatura de hidratación 100cal/gr, le da el color al cemento
(gris verdoso o verde grisáceo), atribuye a la fluidez del cemento,
aporte mínimo de resistencia.

4. C3A, Tricálcico de aluminio: constituye el 13%, temperatura de


hidratación 200°C, funde a 1535°C. Tiene endurecimiento
relámpago, por lo cual se le agrega yeso, para neutralizar este
endurecimiento.

 Compuestos mínimos:
I. Cal libre o viva, que no logro unirse. Cuando es menor al 4% no es peligroso.
Cuando es mayor al 4% es muy peligroso por el aumento de expansión.

II. MgCO3: se disocia en CO2 + MgO es un proceso más lento.

III. Álcalis: sustancia que puede exponerse de manera peligro dentro del
hormigón.

IV. Yeso: se le agrega yeso cuando existe tricalcio de aluminio.

Propiedades generales del cemento:

 Buena resistencia al ataque químico.

 Resistencia a temperaturas elevadas. Refractario.

 Uso apropiado para bajas temperaturas por ser muy exotérmico.

 Resistencia la resistencia a la compresión es afectada fuertemente por la


relación agua/cemento y la edad o la magnitud de la hidratación.

 Durabilidad y flexibilidad: ya que es un material que no sufre deformación


alguna.

 El cemento es hidráulico porque al mezclarse con agua, reacciona


químicamente hasta endurecer. El cemento es capaz de endurecer en
condiciones secas y húmedas e incluso, bajo el agua.

 El cemento es notablemente moldeable: al entrar en contacto con el agua y los


agregados, como la arena y la grava, el cemento es capaz de asumir cualquier
forma tridimensional.

 El cemento (y el hormigón o concreto hecho con él) es tan durable como la


piedra. A pesar de las condiciones climáticas, el cemento conserva la forma y
el volumen.

 El cemento es un adhesivo tan efectivo que una vez que fragua, es casi
imposible romper su enlace con los materiales tales como el ladrillo, el acero,
la grava y la roca.

 Los edificios hechos con productos de cemento son más impermeables


cuando la proporción de cemento es mayor a la de los materiales agregados.

Comercialización: La mayor parte del cemento se comercializa en bolsas de 42,5


kg y el resto al granel, de acuerdo a los requerimientos del usuario. Las bolsas por lo
general, son fabricadas en papel krap extensible tipo kuplac con variable contenido de
hojas, que usualmente están entre dos y cuatro, de acuerdo a los requerimientos de
transporte o manipuleo. En algunos casos cuando las condiciones del entorno lo
aconseja, van provistas de un refuerzo interior de polipropileno. Las bolsas son
ensayadas para verificar su porosidad al aire, absorción, impermeabilidad y
resistencia mecánica. También, las fabricas están preparadas para realizar la
comercialización del cemento en bolsones con capacidad de 1,5 toneladas dichos
bolsones se conocen como big bag. Todas las fábricas disponen de facilidades para el
despacho del cemento a granel. En esta modalidad la cantidad mínima a vender es de
25 a 30 toneladas, según la capacidad del semi-remolque.
-Normas relacionadas con los distintos tipos de cemento: Normas IRAM 50000 y
Normas IRAM 50001
95) Explique la curva de hidratación del cemento portland según Forester
A medida que se desarrolla la hidratación del cemento se va produciendo una serie de
fenómenos físicos que constituyen la manifestación del proceso químico en marcha.
De esta forma la pasta de cemento y agua pasa de ser un “liquido viscoso” a ser un
“sólido resistente”. Estas etapas de cambio pueden indicarse como: pérdida de
plasticidad, fraguado y endurecimiento.
En primer lugar, y debido a las primeras reacciones de hidratación sumadas a la
adsorción de agua sobre la superficie de los productos de hidratación débilmente
cristalinos (como la etrengita y el CSH) y a la evaporación, se produce una reducción
del agua libre del sistema. El agua le confiere movilidad a la mezcla; como
consecuencia su disminución hace que la pasta pierda plasticidad y se rigidice.
Es importante destaca que en una pasta que recién ha fraguado los niveles de
resistencia son muy bajos dado que a esta altura recién ha comenzado la hidratación
del C3S. Cuando se produce la hidratación de los silicatos, el CSH va llenando en
forma progresiva los vacíos del material (poros), disminuyendo la porosidad e
incrementando la resistencia. Este proceso de ganancia de resistencia o
endurecimiento se prolonga a lo largo del tiempo.
Como fuera mencionado, en las primeras etapas de la hidratación al ponerse en
contacto el cemento con el agua se produce una disolución de los compuestos en sus
constituyentes iónicos, la solución se satura, se forman los hidratos en solución y
posteriormente precipitan. Todas las reacciones de hidratación son exotérmicas, se
producen con liberación de calor. El calor liberado dependerá de la composición del
cemento, siendo el C3A y el C3S los compuestos más importantes en relación a la
evolución del calor. La finura, la temperatura y la relación a/c son factores que
también intervienen en la generación de calor. El carácter exotérmico de las
reacciones resulta importante ya que, por un lado, según las condiciones de la
estructura y el medio ambiente podrán resultar negativas o positivas.
La figura muestra una curva calorimétrica típica correspondiente al C3S. Se observa
una rápida evolución del calor asociada con el proceso de disolución. Luego sigue un
período de aparente “inactividad” donde la disolución continúa pero en forma muy
lenta. Cuando la concentración de iones calcio e hidroxilo alcanzan un valor crítico
comienzan a cristalizar a partir de la solución el CH y CHS y la reacción del C3S
adquiere nuevamente gran velocidad. A esta altura se ha superado el fraguado final y
comenzó el endurecimiento. Continúa la formación de productos de hidratación, el
CSH cubre los granos de C3S, se forma una barrera de difusión a través de la cual el
agua debe pasar para alcanzar el C3S anhidro y la velocidad de reacción nuevamente
disminuye y al cabo de 18 a 36 horas continúa en forma estable. El C2S se hidrata en
forma más lenta y libera menos calor.

La figura esquematiza una curva calorimétrica de un cemento portland. Las


características de la misma varían según la composición del cemento. Nuevamente se
observan una etapa inicial de gran actividad (hidrólisis), el período de inactividad y
una serie de picos superpuestos que corresponden a la formación de los distintos
compuestos hidratados.
Es importante destacar la existencia de ese “período de inactividad” de las reacciones
dado que el mismo es responsable de que el hormigón permanezca en estado
plástico durante algunas horas y nos posibilite trabajar al hormigón fresco sin alterar la
estructura en formación y consecuentemente las propiedades físicas y mecánicas del
material endurecido.
Bibliografía: Hormigón – Alberto Giovambattista.
96) Detalle las temperaturas, los materiales, los procesos, las cantidades que se
extraen por dia, y las cantidades que se consumen de combustible en los
hornos para via humeda, seca y semiseca, investigue si hay otros procesos de
fabricación de cemento.
El proceso de fabricación del cemento comprende las siguientes etapas principales
1. Obtención y preparación de materia primas
El proceso de fabricación del cemento se inicia con los estudios y evolución
minera de materias primas (calizas y arcillas) necesarias para conseguir la
composición deseada de óxidos metálicos para la producción de Clinker.
El Clinker se compone de los siguientes óxidos (datos en %)

La obtención de la producción adecuada de los distintos óxidos se realiza


mediante la dosificación de los minerales de partida.

 Caliza y marga para el aporte de CaO


 Arcilla y pizarras para el aporte del resto de óxidos
Como segundo paso se complementan los estudios geológicos, se planifica la
explotación y se inicia un proceso: de perforación, quema, remoción, clasificación,
cargue y transporte de materia prima.

Las materias primas esenciales, calizas, margas y arcilla que son extraídas de
cantera, en genera próximas a la planta, deben proporcionar elementos esenciales
en el proceso de fabricación de cemento: calcio, silicio. Aluminio y hierro.
Muy habitualmente debe apelarse a otras materias primas secundarias, bien
naturales (bauxita, mineral de hierro) o subproductos y residuos de otros procesos
(cenizas de central térmica, escorias de siderurgia, arenas de fundición …) como
aportadoras de dichos elementos. Las calizas pueden ser de dureza elevada, de
tal modo que exijan el uso de explosivos y luego trituración, o suficiente mente
blandas como para poderse explotar sin el uso de explosivos.
El material de trituracion de la voladura es transortado en camiones para su
trituracion, los mismos que son cargados mediante palas o cargadores frontales de
gran capacidad.
Las materias primas naturales son sometidas a una primera trituracion, bien en
cantera o a su llegada a la fabrica de cemento donde se descargan para su
almacenamiento.
La trituracion de la roca, se realiza en dos etapas, de tipo cono que puede
reducirla de un tamaño maximo de 1.5 m hasta los 25 cm. El material se deposita
en un parque de almacenamiento. Seguidamente, luego de verificar su
composicion quimica, pasa a la trituracion secundaria, reduciendose su tamaño
hasta 2 mm aproximadamente.
El material triturado se lleva a la planta propiamente dicha por cintas
transportadoras, depositandose en un parque de materias primas. En algunos
casos se efectua un proceso de pre-homogeneizacion.

La prehomogeneizacion realizada mediante diseños adecuados de apilamiento y la


extracción de los materiales en los almacenamientos reduce la variabilidad de los
mismos.
Este material es transportado y almacenado en un silo de cual se alimenta el
molino de crudo. Allí mismo se tiene dos silos mas con los materiales correctivos
(minerales de hierro y caliza correctiva alta). Se dosifica dependiendo de sus
características; y mediante basculas el material al molino de crudo. Los estudios
de composición de los materiales en las distintas zonas de cantera y los análisis
que se realizan en fabrica permiten dosificar la mezcla de materias primas para
obtener la composición deseada.
2. Molienda y cocción de las materias primas
Esta etapa comprende la molienda de materias primas (molienda de crudo), por
molinos de bolas, por prensas de rodillos o a fuerza de compresión elevadas, que
producen un material de gran finura.
En este proceso se efectúa la selección de los materiales, de acuerdo al diseño de
la mezcla revisto, para optimizar el material crudo que ingresara al horno ,
considerando el cemento de mejores características.
Con la molienda se logra reducir el tamaño de las partículas de materias para que
las reacciones químicas de cocción en el horno puedan realizarse de forma
adecuada. El molino muele y pulveriza los materiales hasta un tamaño medio de
0.05mm.
El material molido debe ser homogeneizado para garantizar la efectividad del
proceso de clinkerizacion mediante una calidad constante. Este procedimiento se
efectúa en silos de homogeneización. El material resultante constituido por un
polvo de gran finura debe presentar una composición química constante.

El horno debe recibir una alimentación química homogénea. Esto se consigue


mediante el control de la correcta dosificación de los materiales que forman la
alimentación al molino crudo. Si se parte de materiales variables en calidad,
previamente se consigue su prehomogeneizacion en una instalación “ad-hoc”.
Después del molino, el crudo sufre un proceso de homogeneización final, que se
asegura una mezcla homogénea con la composición química requerida.
Además de la homogeneidad química, es fundamental la finura y la curva
granulométrica del crudo, lo que se consigue mediante el ajuste del separador que
clasifica el producto que sale del molino, reintroduciéndose la fase no
suficientemente molida (circuito cerrado).
3. Proceso de fabricación del Clinker
Clinker: Se define Clinker como el producto obtenido ppor fusión incipiente de
materiales arcillosos y calizos que contengan oxido de calcio, silicio, aluminio y
fierro en cantidades convenientes calculadas.
El Clinker es un producto intermedio en el proceso de elaboración de cemento.
Una fuente de calcio como las calizas, una fuente de sílice y alúmina como las
arcillas y una fuente de oxido de hierro se mezclan apropiadamente, se muele
finalmente y se calcinan en un horno aproximadamente a 1500°C, obteniéndose el
denominado Clinker de cemento portland.
El crudo es introducido mediante un sistema de transporte neumatico y
debidamente dosificada a un intercambiador de calor por suspensión de gases de varias
etapas, en la base del cual se instala un moderno sistema de precalcinacion de la mezcla
antes de la entrada al horno rotatorio donde se desarrollan las restantes reacciones
físicas y químicas que dan lugar a la formación de Clinker.
El intercambio de calor se produce mediante transferencias térmicas por contacto intimo
entre la materia y los gases calientes que se obtienen del horno, a temperaturas de 950 a
1100°C.
El horno es el elemento fundamental para la fabricación de cemento. Esta constituido por
un tubo cilindrico de acero con longitudes de 40 a 60 m y con diámetros de 3 a 6 m, que
es revestido interiormente con materiales refractarios, en el horno para la producción del
cemento se producen temperaturas de 1500 a 1600°C, dado que las reacciones de
clinkerizacion se encuentran alrededor de 1450°C. El Clinker que egresa al horno de una
temperatura de 1200°C pasa luego a un proceso de enfriamiento rápido por enfriadores
de parrilla. Seguidamente por transportadores metálicos es llevado a una cancha de
almacenamiento.

En función de como se procesa el material antes de su entrada en el horno de Clinker, se


distinguen cuatro tipos de procesos de fabricación:

 Vía seca
 Vía semi seca
 Vía semi húmeda
 Vía húmeda
La tecnología que se aplica depende fundamentalmente del origen de las materias
primas. El tipo de caliza y de arcilla y el contenido de agua (desde el 3% para calizas
duras hasta el 20% para algunas margas), son los factores decisivos.
En la actualidad, en torno al 78% de la producción de cemento de Europa se realizara en
horno de vía semi seca o semi húmeda y un 6% de la producción Europea se realiza por
vía húmeda
Proceso por vía seca
El proceso de vía seca es el más económico, en termino de consumo energético, y es el
más común.
La materia prima es introducida en el horno en forma seca y pulverizada.
El sistema del horno comprende una torre de ciclones para intercambio de calor en la que
se precalienta el material en contacto con los gases provenientes del horno.
El proceso de des carbonatación de la caliza (calcinación) puede estar casi completado
antes de la entrada del material en el horno si se instala una cámara de combustión a la
que se añade parte del combustible (precocinado).

Proceso de vía húmeda


Este proceso es utilizado normalmente para materias primas de alto contenido en
humedad.
El material de alimentación se prepara mediante molienda conjunta del mismo con agua,
resultando una pasta con contenido de agua de un 30-40 % que es alimentada en el
extremo más elevado del horno de Clinker.
Si la arcilla es bastante húmeda y tiene la propiedad de desleírse en el agua, debe ser
sometida a la acción de mezcladores para formar la lechada; esto se efectúa en un molino
de lavado, el cual es un pozo circular con brazos revolvedores radiales con rastrillos, los
cuales rompen los aglomerados de materias sólidas.
Procesos de vía semi seca y semi húmeda
El material de alimentación se consigue añadiendo o eliminando agua respectivamente, al
material obtenido en la molienda de crudo. Se obtienen "pellets" o gránulos con un 15-20
% de humedad que son depositados en parrillas móviles a través de las cuales se hacen
circular gases calientes provenientes del horno. Cuando el material alcanza la entrada del
horno, el agua se ha evaporado y la cocción ha comenzado. En todos los casos, el
material procesado en el horno rotatorio alcanza una temperatura entorno a los 1450º. Es
enfriado bruscamente al abandonar el horno en enfriadores planetarios o de parrillas
obteniéndose de esta forma el Clinker.

98) Desarrolle coeficiente alfa de hidratación, curvas y ecuaciones.


99) Desarrolle la obtención de la relación agua /cemento mínimo para
hidratar toda la partícula de cemento.

La relación agua/cemento, a/c es uno de los parámetros más importantes de la


tecnología del hormigón, pues influye grandemente en la resistencia final del mismo.
Expresa la íntima relación que existe entre el peso del agua utilizada en la mezcla y el
peso del cemento. Una razón agua/cemento baja, conduce a un hormigón de mayor
resistencia que una relación agua/cemento alta. Pero entre más alta es la relación, el
hormigón se vuelve más trabajable.
La menor relación a/c para obtener una hidratación completa del cemento se
considera igual a 0,38.
Condiciones químicas, demostrado científicamente:
1g de cemento + 0,23g de agua = 1,23g de sustancia hidratada
 Volumen especifico del cemento (V c ) = 0,32 cm 3 / g
 Volumen especifico del agua (V w ) = 1,00 cm 3 / g
 Volumen especifico de la sustancia hidratada (V sh ) = 0,398 cm 3 / g (NO
INCLUYE EL PORO DE GEL, sólido puro)
cm3 cm3 cm 3
Quedando: 1g x 0,32 + 0,23g x 1,00 = 1,23g x 0,398
g g g
(0,32 + 0,23)cm3< -- > 0,49 cm3 (En volumen)

Si incorporo el 28% de los poros de gel:


0,55 cm 3< -- > 0,68cm 3

Por lo tanto, con 0,55 cm 3 que parto de material genero 0,68 cm 3 de material (se
incrementa un 23,6%).
Relación entre el volumen de material hidratado y el volumen del cemento
0,68 cm 3
= 2,125  2,2 veces
0,32 cm3
Condiciones físicas, obtengo espacio suficiente para que las sustancias hidratadas se
desarrollen.
Si no tengo espacio para que se hidrate el cemento, lo tengo que generar con agua:
De esas 2,2 veces; 1 vez es el volumen del grano de cemento y 1,2 veces es el
volumen del agua.

Vol. Agua = 1,2 Vol. Cemento = 1,2 (W c x V c )


A = 1,2 C x 0,32

A/C = 0,38 valor teórico; mínima relación para que se hidrate el cemento (en H°
normales)
Si un H° tengo una relación menor no podré hidratar todo el cemento, se sacrifica
cemente a costa de ganar en la calidad de vinculaciones entre cristales (para H°
especiales).
El agregar agua de forma indiscriminada, por notar al hormigón “duro”, provoca que
nuestra relación agua-cemento se vea modificada, elevando nuestra razón, y esto,
afecta directamente a la resistencia del hormigón, que ha pasado de tener 30N/mm2 a
tener 24,8 N/mm2, una pérdida del 17% de la resistencia a compresión a 28 días, por
ejemplo. Al igual que la resistencia, la durabilidad también se ve afectada cuando se
altera la relación agua-cemento. Por ejemplo, cuando esta última es alta, las
partículas de cemento están muy espaciadas entre sí.
Esto provoca que cuando se produce el fraguado, los productos de la hidratación del
cemento no cubran todo este espacio y queden pequeños poros. Por lo que a mayor
relación agua-cemento, mayor es la porosidad del hormigón y, por lo tanto, menor es
su durabilidad.
Contrariamente, con una relación agua-cemento no elevada, menor es la porosidad y
mayor la durabilidad.
Fuentes:
 http://bestsupportunderground.com/relacion-agua-cemento/

100) Detalle las características de cada uno de los componentes minerales del
CP.

 Elit o alita (SC3): Se caracteriza por una elevada velocidad de


hidratación (fraguado), así como una elevada capacidad exotérmica (120
cal/gr). Por esta razón los cementos con elevado contenido de silicatos
tricálcicos se denominan: calientes. Los cementos obtendrán rápidamente las
características resistentes. Su inconveniente es la generación de cantidades
de cal y de cambios de volumen debidos a la dilatación térmica causada por el
calor de hidratación.

 Belit o velita (SC2): El silicato tricálcico (C3Si) tiene diez veces más velocidad
de hidratación que el silicato bicálcico. El SC2 reacciona con el agua,
produciendo en la reacción de hidratación los productos portlandita (CH) y un
gel de silicato cálcico hidratado (C-Si-H).

C2S + 2 H -> C-S-H + CH
Como la velocidad de hidratación es lenta, es adecuada la inclusión del
silicato bicálcico en los cementos de hormigones en los que se requiere que las
prestaciones mecánicas del hormigón no sean a corto plazo. Su
temperatura de hidratación es de 60 cal/gr.

 Celit o ferroaluminato tetracálcico (FC4A): El uso de más óxido de hierro en la


alimentación del horno ayuda a disminuir el C3A, pero lleva a la formación de
FC4A, un producto que actúa como relleno con poca o ninguna resistencia. No
obstante, es necesario como fundente para bajar la temperatura de formación
del  clinker.  Es  semejante  al  C3A,  porque  se  hidrata  con  rapidez  y  sólo
desarrolla  baja resistencia. No obstante, al contrario del C3A, no muestra
fraguado instantáneo. Su resistencia a las aguas selenitosas y agresivos en
general es la más alta de todos los constituyentes. Su color oscuro le hace
prohibitivo para los cementos blancos por lo que en este caso se utilizan otros
fundentes en la fabricación.

 Tricalcio de Aluminio (C3A): presenta fraguado instantáneo al ser hidratado y


gran retracción. Es el causante primario del fraguado inicial del cemento
Pórtland y desprende grandes cantidades de calor durante la hidratación (200
cal/gr). El yeso, agregado al cemento durante el proceso de fabricación, en la
trituración o en la molienda, se combina con el C3A para controlar el tiempo de
fraguado, por su acción al retardar la hidratación de este. El compuesto C3A
muestra poco aumento en la resistencia después de un día. Aunque el C3A
hidratado, por sí solo, produce una resistencia muy baja, su presencia en el
cemento Pórtland hidratado produce otros efectos importantes. Por ejemplo un
aumento en la cantidad de C3A en el cemento Pórtland ocasiona un fraguado
más rápido, pero conduce a propiedades indeseables del hormigón, como una
mala resistencia a los sulfatos y un mayor cambio de volumen. Su estabilidad
química es buena frente a ciertas aguas agresivas (de mar, por ejemplo) y muy
débil frente a sulfatos. Con objeto de frenar la rápida reacción del aluminato
tricálcico con el agua y regular el tiempo de fraguado del cemento, se añade al
clinker un sulfato (piedra de yeso).

Componentes mínimos:
 Cal viva (o libre): CaO,  No  debe  sobrepasar  el  4%,  ya  que  en  cantidades
excesivas  puede  dar  por resultado  una  calcinación  insuficiente  del  clinker
en  el  horno,  esto  puede  provocar  expansión  y desintegración del
hormigón. Inversamente, cantidades muy bajas de cal libre reducen la
eficiencia en el consumo de combustible y producen un clinker duro para moler
que reacciona con mayor lentitud.

 Carbonato de magnesio (CO3Mg): Se asocia en CO2 + MgO. Es peligroso a


más largo plazo.

 Álcalis:  (Na2O  y  K2O)  son  componentes  secundarios  importantes,  ya


que  pueden  causar deterioro  expansivo  cuando  se  usan  tipos  reactivos
de  agregados  silíceos  para  el  hormigón.  Se especifica cemento de bajo
álcali en zonas en donde se encuentran estos agregados. El cemento de bajo
álcali contiene no más del 0,6% de álcalis totales. Sin embargo, debe
controlarse el porcentaje

de  álcalis  totales  en  el  hormigón,  ya  que  el  álcali  puede  entrar  a  la  mezcla  de
ese  hormigón proveniente de ingredientes que no son el cemento, como el agua, los
agregados y los aditivos.
 Yeso: se agrega generalmente al clínker para regular el fraguado. Su
presencia hace que el fraguado se concluya aproximadamente en 45 minutos.
El yeso reacciona con el aluminato tricálcico para formar una sal expansiva
llamada etringita.
3 CaOAl2O3 + 3 CaSO4·2H2O + 26 H2O → 3CaOAl2O3 . 3CaSO4 . 32H2O

Bibliografía: Apuntes teóricos

101) Importante: Desarrolle en forma exhaustiva los tipos de cemento según la


clasificación IRAM 50000 e IRAM 50001, y los tipos I, II,III,IV y V según las
normas ASTM.
Nuevas Normas IRAM de Cemento
Mayor Transparencia y Garantía de Calidad para los Usuarios
En el mes de Octubre, se aprobaron dos nuevas Normas IRAM de especificación de
cementos:
• IRAM 50000 – Cementos para Uso General
• IRAM 50001 – Cementos con Propiedades Especiales
El alcance de los cambios introducidos en la normativa nacional de cementos se
explica con cierto detalle en esta misma revista.
Si bien, desde el punto de vista estrictamente técnico, las nuevas normas no
introducen ninguna modificación significativa en los requisitos exigidos para los
cementos, las mismas tienen una estructura que facilita la tarea del usuario en lo que
hace a seleccionar el tipo de cemento a emplear en una determinada construcción.
En efecto, anteriormente, el usuario que debía especificar o seleccionar un cemento,
se enfrentaba a 13 normas IRAM diferentes, sin ninguna orientación acerca de si un
cemento determinado (por ejemplo, puzolánico) servía para cualquier uso o si se
trataba de un cemento especial.
La nueva estructura normativa simplifica enormemente la tarea de los usuarios, ya
que separa a los cementos en dos grandes grupos, los Cementos para Uso General y
los Cementos con Propiedades Especiales.
El primer grupo, Cementos para Uso General, incluye 6 tipos de cemento que difieren
en su composición, pero que son, en principio, igualmente aptos para su empleo en
estructuras corrientes de hormigón simple, armado o pretensado o en tareas de
mampostería y albañilería. Básicamente, la diferenciación en prestaciones se
establece, por su pertenencia a alguna de las 3 Categorías de Resistencia (30, 40 o
50 MPa) en que se dividen, más que a su composición.
Esto no significa que todos los tipos de cemento incluidos en la Norma 50000 –
Cementos para Uso General, tengan un comportamiento idéntico, aun cuando
pertenezcan a la misma Categoría de Resistencia. No, seguramente cada cemento
tendrá su propia “personalidad”; habrá algunos que presenten mejor trabajabilidad que
otros; ciertos cementos podrán tener una ventaja marginal en la resistencia a corta
edad, otros en la resistencia a largo plazo. De lo que sí puede estar seguro el usuario,
es que cualquiera de los cementos IRAM 50000 estarán diseñados y producidos por
el fabricante para tener un desempeño satisfactorio en la gran mayoría de las
aplicaciones ingenieriles y arquitectónicas que no presenten exigencias particulares.
Para los casos restantes, el usuario puede referirse a los Cementos con Propiedades
Especiales, IRAM 50001, donde encontrará productos con una extensa gama de
prestaciones específicas, que le permitirán resolver diversos problemas técnicos. Por
ejemplo, satisfacer la necesidad de:
• un desarrollo rápido de resistencia (premoldeados, pretensado, clima invernal, etc.)
• producir un hormigón resistente a la acción de sulfatos en los suelos o aguas con
que está en contacto
• limitar el calor de hidratación (estructuras masivas)
• controlar la reacción de los álcalis con agregados reactivos, cuando no haya mejor
solución que usarlos en hormigones que estarán frecuentemente humedecidos
Si bien, en el aspecto de especificación de productos, las normas no introducen
ningún cambio de fondo, sí lo hacen en el aspecto de evaluar la conformidad de los
cementos con dichas especificaciones.
Las normas IRAM preexistentes no incluían ningún esquema explícito para evaluar
dicha conformidad.
Las normas IRAM 50000 y 50001 presentan, como importante innovación, un
esquema detallado de evaluación de la conformidad de un cemento con las
especificaciones correspondientes. Las nuevas normas exigen que el productor de
cemento cuente con un sistema de calidad según IRAM-IACC-ISO E 9001 ó 9002,
complementado con la certificación de sus productos. Esta certificación será otorgada
por un organismo de certificación acreditado (tercera parte), que deberá constatar el
cumplimiento de:
• Que el sistema y control de calidad de la fábrica sean satisfactorios
• Que los resultados de ensayo de auditoría externa cumplan con los requisitos de
aceptación
• Que los resultados de autocontrol del fabricante sean conformes
Este esquema conduce a una verificación aún más estricta de la calidad de los
cementos que la que ha venido llevando a cabo el CECON-INTI hasta el presente, en
el marco de la Res. 130/92 de la Secretaría de Industria y Comercio de la Nación
Como continuación natural de esa labor, las tareas de certificación, inspección y
ensayo establecidas en las nuevas normas seguirán a cargo del INTI, del CECON y
sus laboratorios. Cabe señalar que los laboratorios del CECON tienen acreditados, a
través del UKAS (organismo de acreditación del Reino Unido), los ensayos y análisis
de cemento, lo que otorga la máxima confiabilidad a los resultados obtenidos.
Así, esta nueva normativa no sólo es más amigable para el usuario en cuanto a
facilitarle la elección de sus cementos, sino que le brinda la máxima garantía sobre la
calidad de los mismos.
Recientemente, se aprobaron dos importantes nuevas normas IRAM de especificación
de cementos:
• IRAM 50000:2000. Cementos para Uso General
• IRAM 50001:2000. Cementos con Propiedades Especiales
Tal como lo muestra la Fig. 1, las dos nuevas normas engloban a un conjunto de
cementos que antes tenían normas de especificación individuales.

Es importante destacar dos aspectos importantes de las nuevas Normas:


• Que establecen un esquema de evaluación de conformidad y de certificación de
producto, que implican un sistema externo de verificación de la calidad aún más
riguroso que el llevado a cabo hasta la fecha.
• Que estas normas no introducen un cambio en los requisitos exigidos en la
especificación de los cementos, que continúan siendo esencialmente los mismos.
La Norma IRAM 50000:2000, “Cementos para Uso General”
Especificación de Producto
Se entiende por cementos para uso general a aquéllos que son aptos para
aplicaciones estructurales y no estructurales en la construcción.
O sea, que incluye a los cementos que pueden usarse indistintamente en la
elaboración de hormigones estructurales, simples, armados o pretensados y también
en aplicaciones no estructurales, solos o en combinación con otros aglomerantes.
Esta Norma no cubre a los cementos de albañilería, no aptos para uso estructural,
cuya especificación continúa siendo cubierta por la Norma IRAM 1685.
La Norma IRAM 50000:2000 condensa en un único documento las especificaciones
de los tipos de cemento preexistentes, como se indica en la Tabla I.

El enfoque de englobar los distintos tipos de cemento en una única norma, sigue los
lineamientos de la Norma Europea de cementos, CEN 197:2000. Como se indica en la
Tabla I, el único cambio en las especificaciones es el del nombre del Cemento de
Escoria de Alto Horno, que creaba confusión con el Cemento Portland con Escoria de
Alto Horno, por lo que se convino en designarlo Cemento de Alto Horno, para una
mejor diferenciación. Los requisitos de composición, químicos y físico-mecánicos no
han sido alterados.

En particular, se conserva sin alteraciones la diferenciación de los cementos por


categorías de resistencia CP 30, CP 40 y CP 50, que indican los valores mínimos de
resistencia a compresión (en MPa) que deben poseer los cementos, cuando se los
ensaya en mortero normal a 28 días de edad, según la Norma IRAM 1622. La Tabla III
muestra los requisitos mecánicos especificados en la Norma IRAM 50000 para las
tres categorías de resistencia (nótese que para las categorías 30 y 40 se establece,
además del valor mínimo a 28 días, un valor máximo de resistencia a compresión).
Evaluación de la Conformidad
El otro aspecto importante y completamente novedoso de las nuevas Normas IRAM
50000 y 50001 es que estipula el esquema para la Evaluación de la Conformidad de
un cemento dado con los requisitos exigidos en su correspondiente especificación de
producto.
El capítulo 8, de Evaluación de la Conformidad establece las condiciones para el
otorgamiento, por tercera parte, de una certificación de conformidad.
Asimismo, establece reglas técnicas para el control de calidad en planta por el
fabricante y para las tareas de dicha tercera parte.
Las Normas IRAM 50000 y 50001 exigen que el productor de cemento cuente con un
sistema de calidad según IRAM-IACC-ISO E 9001 ó 9002, complementado con la
certificación de sus productos. Esta certificación será otorgada por un organismo de
certificación acreditado (tercera parte), que deberá constatar el cumplimiento de:
• Que el sistema y control de calidad de la fábrica sean satisfactorios
• Que no se registren más de un ensayo de auditoría (ensayos realizados por un
laboratorio de ensayos externo, sobre muestras extraídas por un organismo de
inspección independiente) cumplan con el criterio de conformidad establecido en la
Norma respectiva
• Que los resultados de autocontrol del fabricante cumplan con el criterio de
conformidad establecido en la Norma respectiva
La Norma IRAM 50001:2000, “Cementos con Propiedades Especiales”
Los “Cementos con Propiedades Especiales” son aquéllos que poseen determinadas
propiedades especiales que los hacen recomendables para ciertas aplicaciones
particulares.
Esta Norma se refiere en realidad a ciertos cementos que corresponden a los tipos y
categorías de resistencia definidos en la Norma IRAM 50000:2000 (descritos en las
Tablas II y III de este artículo) los que, aparte de cumplir los requisitos de
composición, químicos y físico-químicos establecidos en esa Norma, poseen
características especiales que les confieren ventajas para ciertas aplicaciones
específicas.
Los Cementos con Propiedades Especiales se listan en la Tabla IV.
La Norma IRAM 50001:2000 establece los requisitos específicos que hacen que un
cemento dado, encuadrado en los tipos y categorías de resistencia especificados en
la Norma IRAM 50000:2000, pueda ser considerado, además, como un cemento con
una o más propiedades especiales de la Tabla IV.
La única modificación introducida a las especificaciones es que ahora, cualquier tipo
de cemento puede encuadrarse como ARI, siempre que cumpla con los requisitos de
finura y de resistencia a compresión a 1, 2, 3, 7 y 28 días de edad (estos requisitos
son idénticos a los preexistentes en la Norma IRAM 1646). Anteriormente los
cementos con adiciones minerales estaban excluidos de esta posibilidad.
Designación de los Cementos
Los cementos se designarán de la siguiente manera (ver esquema en Fig. 3):
• Tres letras, correspondientes a su Nomenclatura (ver Tabla II) que indican el tipo de
cemento, referido a su composición (p.ej. CPN: Cemento Portland Normal; CPF:
Cemento Portland con Filler Calcáreo, etc.)
• Dos dígitos que indican la categoría de resistencia a la que pertenece el cemento
(30, 40 ó 50)
• Si el cemento posee una o más propiedades especiales, se agregará entre
paréntesis, las series de letras, separadas por comas, que indican su/s propiedades
especiales (p.ej. ARI: Alta Resistencia Inicial; BCH: Bajo Calor de Hidratación, etc.)
Ejemplos:
CPN50 (ARI): Cemento Portland Normal, Categoría 50 MPa, de Alta Resistencia
Inicial
CPF40: Cemento Portland con Filler Calcáreo, Categoría 40 MPa
CPP30 (ARS, BCH, RRAA): Cemento Portland Puzolánico, Categoría 30 MPa,
Altamente Resistente a los Sulfatos, de Bajo Calor de Hidratación y Resistente a la
Reacción Alcali-Agregado
CPN40 (MRS): Cemento Portland Normal, Categoría 40 MPa, Moderadamente
Resistente a los Sulfatos
Adecuación de las Especificaciones a la Nueva Normativa
La desaparición de las normas anteriores y su reemplazo por las nuevas normas
IRAM 50000 y 50001, obliga a una revisión y adecuación de las especificaciones en
vigencia a la nueva normativa.
En particular, muchas especificaciones de mediana y larga data, suelen hacer
referencia al Cemento Portland Normal (ex Norma IRAM 1503), como cemento a usar
“por default”. Ello reflejaba la situación del mercado anterior a los años ’90, donde
dicho tipo de cemento era el de mayor producción y venta en el país. Esta situación se
ha revertido y hoy, merced a la incorporación de modernas tecnologías de producción
en la mayoría de las plantas de cemento del país, la tendencia es a producir cementos
con mayor contenido de adiciones minerales, pero de desempeño equivalente y, en
algunos aspectos, incluso superior al del Cemento Portland Normal. Esto redunda en
las siguientes ventajas:
• Mayor protección de los recursos naturales no-renovables
• Menor consumo energético en la producción de cemento
• Mayor empleo de subproductos industriales
• Disminución de emisiones gaseosas a la atmósfera
En términos generales, podemos decir que cuanto mayor sea el contenido de
adiciones minerales, más “ecológico” será un tipo de cemento dado. Por ello,
respondiendo a la necesidad de una industria sustentable, la producción de Cemento
Portland Normal está siendo desplazada crecientemente por la de los distintos
cementos con adiciones minerales.
Por ello nuestra recomendación es que, para aquellas aplicaciones clásicas del
cemento, tales como hormigón simple, armado y pretensado, sea para estructuras de
edificios, pavimentos, pisos, obras hidráulicas, etc. se especifique simplemente
Cemento para Uso General, IRAM 50000:2000, indicando la categoría de resistencia
deseada.
Según lo especifica el CIRSOC 201, dicha categoría puede ser cualquiera para
hormigones hasta la Clase H-21 exclusive y las CP40 o CP50 para las Clases H-21 ó
superiores. Si razones bien fundadas aconsejan o desaconsejan el uso de uno o
algunos Tipos de Cemento específicos, entonces se los especificará de manera
taxativa.
Para estructuras o condiciones de exposición particulares, que requieran el empleo de
Cementos con Propiedades Especiales, de entre los normalizados en la Norma IRAM
50001, se los especificará explícitamente.
Clasificación de los cementos según la norma ASTM
ASTM C150
Esta especificación cubre ocho tipos de cemento portland: tipo I, tipo IA, tipo II, tipo
IIA, tipo III, tipo IIIA, tipo IV y tipo V. el cemento cubierto por esta especificación
solamente contiene los siguientes ingredientes: Clinker de cemento portland, agua,
sulfato de calcio o ambos, piedra caliza, adiciones de procesamiento, un incorporador
de aire, además del cemento portland. El cemento portland de cada uno de los ocho
tipos debe tener las siguientes composiciones quimicas: óxido de aluminio, óxido
férrico, óxido de magnesio, trióxido de azufre, silicato tricálcico, silicato dicálcico,
aluminato tricálcico y aluminofernite tetracálcico. Las propiedades aplicables
enumeradas en esta especificación, serán determinados por los siguientes métodos
de ensayo: contenido de aire del mortero, el análisis químico, la fuerza, la falsa
conjunto, la finura de la permeabilidad dl aire, la finura por turbidimetro, el calor de
hidratación, la expansión en autoclave, la hora de fijar por agujas de Gillmore, tiempo
de fraguado por las agujas Vicat, resistencia sulfato, sulfato de calcio y resistencia a la
compresión. El cemento se almacenara de manera tal que permita un fácil acceso
para la inspección e identificación de cada envió apropiada, y en un edificio hermético
adecuado que proteger el cemento de la humedad y minimizar conjunto almacén.
Esta especificación cubre diez tipos de cemento portland, de la siguiente manera (Ver
Nota 2):
Tipo I: Para usar cuando no se requieren las propiedades especiales especificadas
para cualquier otro tipo.
Tipo IA: Cemento incorporador de aire para los mismos usos que el tipo I, donde se
desea incorporación de aire.
Tipo II: Para uso general, más especialmente cuando se desea resistencia moderada
a los sulfatos.
Tipo IIA: Cemento incorporador de aire para los mismos usos que el tipo II, donde se
desea incorporación de aire.
Tipo II (MH): Para uso general, más especialmente cuando se desea moderado el
calor de hidratación y la resistencia moderada a los sulfatos.
Tipo II (MH) A: Cemento incorporador de aire para los mismos usos que el tipo II
(MH), donde se desea la incorporación de aire.
Tipo III: Para usar cuando se desea alta resistencia inicial.
Tipo IIIA: Cemento incorporador de aire para los mismos usos que el tipo III, donde se
desea incorporación de aire.
Tipo IV: Para usar cuando se desea un bajo calor de hidratación.
Tipo V: Para usar cuando se desea alta resistencia de los sulfatos.
NOTA: Algunos cementos son designados con una clasificación de tipo combinado,
tales como el I/II, indicando que el cemento cumple con los requisitos de los tipos
indicados y se ofrecen como adecuados para usar cuando se desea cualquier tipo.
102) Porque se utiliza tanto el hormigón, siendo que hay materiales mas
resistentes en la construcción…cual “SUPONE” que son sus debilidades y
fortalezas…

Su amplio uso se debe a:

 Capacidad de endurecer bajo el agua.

 Resistente al agua y altas temperaturas.

 Endurece a temperaturas normales.

 Elevada durabilidad.

 Capacidad de ser moldeado.

 Es relativamente económico.

 Se puede introducir desperdicios.

 Trabaja muy bien con armadura.

 Protección que provee al acero de las armaduras.

 Bajo mantenimiento.

Fortalezas

 Es una material con aceptación universal, por la disponibilidad de los


materiales que lo componen.

 Tiene una adaptabilidad de conseguir diversas formas arquitectónicas.

 Posee alto grado de durabilidad.

 Posee alta resistencia al fuego. (Resistencia de 1 a 3 horas)

 Tiene la factibilidad de lograr diafragmas de rigidez horizontal. (Rigidez:


Capacidad que tiene una estructura para oponerse a la deformación de una
fuerza o sistema de fuerzas)

 Capacidad resistente a los esfuerzos de compresión.


 La ventaja que tiene el concreto es que requiere de muy poco mantenimiento

Debilidades

 Las desventajas están asociadas al peso de los elementos que se requieren


en las edificaciones por su gran altura, como ejemplo tenesmo si las
edificaciones tienen luces grandes o volados grandes las vigas y losas
tendrían dimensiones grandes esto llevaría a generar mayor costo en la
construcción de la edificación.

 Por otro lado los elementos arquitectónicos que no tiene estructura ya sean
tabiques o muebles pueden ser cargar gravitatorias ya que aumentarían la
fuerza sísmica por su gran masa.

 La adaptabilidad al logro de formas diversas ha traído como consecuencia


configuraciones arquitectónicas muy modernas e impactantes pero con
deficiente comportamiento sísmico.

 Excesivo peso y volumen.

Bibliografía: https://es.scribd.com/doc/53683750/Ventajas-y-Desventajas-Del-
Concreto

103) Explique que es el cemento blanco y como se fabrica.

Cemento Blanco. Variedad de cemento que se fabrica a partir de materias primas


cuidadosamente seleccionadas de modo que prácticamente no contengan hierro u
otros materiales que le den color. Sus ingredientes básicos son la piedra caliza, base
de todos los cementos, el caolín (una arcilla blanca que contiene mucha alúmina)
y yeso.

El cemento portland blanco se obtiene a partir de la producción del horno de cemento


de un Clinker de color blanco, y luego en la molienda de este Clinker, se le adiciona
yeso. El Clinker blanco se obtiene de una mezcla finamente dividida de piedra caliza
y arcillas blancas de tipo caolín. La obtención del color blanco del cemento se
consigue a través de una selección de sus materias primas libres de materiales que le
pudieran dar una tonalidad y color al cemento; y de un permanente cuidado en todas
las etapas de fabricación, especialmente la molienda, para preservar su blancura.
Cuando el cemento blanco se mezcla con agua, se inician las reacciones
de hidratación, en la cual se produce una reacción química de sus componentes con
el agua, de esta forma se produce el endurecimiento de la pasta. En términos
generales el cemento blanco necesita una cantidad de agua del orden del 27% del
peso del cemento.

104) Que son los cementos demoledores expansivos con agentes no


explosivos, como se los fabrica?

El CEMENTO EXPANSIVO es un agente de demolición, ha sido usado sin incidentes


y con grandes resultados por miles de propietarios de canteras, contratistas y
propietarios de casas. Aunque no es tóxico, CEMENTO EXPANSIVO es cáustico, y
puede causar graves lesiones en la vista si se salpica en los ojos mientras se está
mezclando o vertiendo. Estos están fabricados con cemento Portland, yeso y cemento
aluminoso.

105) Cuales son las tres zonas que se debe analizar el Hormigón, con
respecto a la durabilidad y la resistencia.
Las 3 zonas en las que se debe analizar el hormigón con respecto a la durabilidad y la
resistencia son:

 La zona de los agregados.


 La zona de la pasta o membrana cementicia.
 La zona de la interfaz (zona de contacto entre el agregado y la pasta
cementicia).

Fuentes:
 Apuntes de Clase Teorica

106) Cuales son las 3 funciones que cumple el agua en el Hormigón, por
favor detalle sobre estas funciones.

Funciones del agua en el hormigón.

1. Reacción de hidratación. Resistencia.

Participa en las reacciones de hidratación del cemento en una


proporción 0,2 – 0,3 de peso del cemento
Cabe resalta también que la relacion de agua y cemento en el
hormigon afecta en forma muy importante en cuanto a su resistencia
final del mismo ; Esto se pone en evidencia enunciado la Ley de
Abrams.

Ley de Abrams:

Esta ley establece la relación entre la resistencia del Hormigon y la


relación agua/cemento.

= a/c

donde a es la cantidad de agua en litro o en Kg, y c la dosis de


cemento en Kg.

Una forma de representar la Ley de Abrams es:

R=M/N

Donde R es la resistencia media, M y N son constantes que dependen


de las características de los materiales, edad del ensayo y la forma de
llevarlo a cabo
Trabajabilidad y fluidez.

Tiene la función de darle una trabajabilidad y una fluidez, necesaria


para la puesta en obra.

La cantidad de agua debe limitarse, ya que el agua en exceso se


evapora y crea una red de poros capilares que disminuyen su
resistencia.

2. Agente de curado

Es la más importante durante la etapa del fraguado y el primer


endurecimiento. Tiene por objeto evitar la desecación, mejorar la
hidratación del cemento y evitar la retracción prematura.

El Agua de Curado tiene una actuación más duradera que el Agua de


Amasado, y por lo tanto se corre más riesgos al aportar sustancias
perjudiciales con el Agua de Curado que con el Agua de Amasado.

Calidad.
El agua para amasar y curar el hormigón será satisfactoria si es potable (adecuada
para el consumo humano). Esta debe estar razonablemente limpia y sin cantidades
dañinas de materia orgánica, fango y sales. El límite máximo de tubidez debe ser de
2000 ppm*. Cuando las impurezas en el agua de mezclado son excesivas pueden
afectar no solo el tiempo de fraguado, la resistencia y estabilidad del volumen sino
también provocar eflorescencia o corrosión en el refuerzo.
En general se puede usar para mezclado y curado del hormigón, sin necesidad de
realizar análisis, agua clara que no tenga sabor ni olor notorios, con excepción, casi
exclusivamente, a las aguas de alta montaña ya que su gran pureza les confiere
carácter agresivo para el hormigón.
El agua de ciénagas o de lagos estancados puede contener ácido tánico, el cual
puede causar retardo en el fraguado y desarrollo de la resistencia. No obstante,
algunas aguas visiblemente insalubres pueden también ser utilizadas, previo análisis
de estas: aguas bombeadas de minas (que no sean de carbón ya que el agua mineral
intensamente carbonatada puede producir reducciones apreciables en la resistencia),
algunas de residuos industriales, aguas pantanosas, etc.
Podrán, emplearse aguas de mar o aguas salinas análogas para el amasado o curado
de hormigones que no tengan armadura alguna. Salvo estudios especiales, se
prohíbe expresamente el empleo de estas aguas para el amasado o curado de
hormigón armado o pretensado.
107) Explique porque SI utilizaría Asfalto en una ruta…y porque NO…
INVESTIGUE
El hormigón asfáltico tiene diferentes prestaciones en términos de durabilidad de
superficie, soporte de neumático, eficiencia de frenado y disminución de ruido. Las
características necesarias del asfalto se obtienen en función de la categoría de tráfico
y el coeficiente de fricción deseado. En términos generales el hormigón asfáltico
genera es menos ruidoso que el proveniente del cemento portland. Los estudios de
cinética y ruidos en firmes se remontan a los años 1970s
108) Explique porque utilizaría Hormigón en una ruta…y porque NO…
INVESTIGUE

Los pavimentos rígidos: Los cuales pueden estructurarse por la capa de


subrasante, base y losa de hormigón. Para el pavimento rígido, se trabajaron las
mismas tres etapas mencionadas para el pavimento flexible. Inicialmente se tiene la
etapa de diseño, que incluye el método AASHTO. Además, se debe tomar en cuenta
la preparación de la rasante, la construcción de la base y sub-base, llegándose así a
los trabajos de preparación previos a la pavimentación con 4 hormigón rígido.
Seguidamente, se entra en detalle sobre la mezcla de hormigón y todo lo que conlleva
su fabricación; finalizando con la colocación, terminación, texturizado y curado del
hormigón. En la actualidad, por uno u otro motivo los caminos (principalmente los más
transitados), se ven deteriorados por muchos factores, como la accidentada topografía
del terreno y el desgaste propio producido por la circulación vehicular. Por este motivo,
el análisis comparativo que se realizará, tiene como principal objetivo demostrar la
calidad que tienen las mezclas asfálticas y el hormigón, como material utilizado en la
construcción de pavimentos, demostrando como el costo de su producción es
preponderante al momento de optar por alguno de los dos, y conociendo sus
principales características:
 Losa de hormigón armado que absorbe todo el esfuerzo.
 Menores deformaciones  
 Vida útil es mayor  
 Existe menor fricción en la superficie de rodadura 
 Mayor costo de mantenimiento 
 Color gris claro  

Los pavimentos rígidos de hormigón con cemento portland presentan variadas


ventajas y especialmente frente a otros tipos como el asfáltico o flexible. Su
reconocida resistencia estructural al desgaste y desintegración e impermeabilidad del
hormigón aseguran su estabilidad y duración máxima. Además, puede indicarse como
el verdadero pavimento económico. Puede usarse ventajosamente en calles y rutas.
Los números y la experiencia demuestran, con toda evidencia, que el pavimento más
económico no es el que exige menor inversión en su construcción, sino el de costo
anual mínimo; esto es, menor costo de inversión en su mantenimiento a lo largo de su
vida útil. Entre las ventajas a destacar la Irreversibilidad del cemento como
aglomerante. Inalterabilidad del hormigón ante las aguas servidas (detergente, gasoíl,
etc.) derramadas en la calle. Indeformabilidad de la superficie de rodamiento en calles
con pendientes muy pronunciadas. Ausencia de desgranamientos y peladuras por
desprendimiento en la superficie en zonas de detención, arranques y giro de
vehículos. El hormigón cementicio es más resistente a la cargas estáticas q el asfalto.

Bibliografía:
http://www.abc.com.py/edicion-impresa/economia/pavimento-de-hormigon-de-
cemento-tiene-ventajas-frente-al-de-asfalto-745290.html
http://cybertesis.uach.cl/tesis/uach/2014/bmfcib957a/doc/bmfcib957a.pdf
109) Explique porqué utilizaría hormigón armado en una ruta, y porqué
no. Investigue.
Pavimentos de hormigón con refuerzos de acero
Existen dos tipos básicos de refuerzo para estos pavimentos:
 Refuerzo no estructural: la finalidad principal del refuerzo es resistir las
tensiones de contracción del concreto en edades tempranas y controlar los
agrietamientos. La cuantía del refuerzo necesaria oscila entre 0,1% y el 0,3%
del área de la sección transversal de la losa.
 Refuerzo estructural: en este caso, el acero no solo cumple la función de
resistir las tensiones derivadas del comportamiento plástico del hormigón, sino
que también asume tensiones de tracción y compresión derivadas del tráfico,
por lo cual el espesor de las losas suele ser hasta 10 cm menor al de las que
tienen refuerzos que no cumplen esta función. Su estructura típica está
integrada por dos secciones de acero: una en el tercio superior y otra en el
tercio inferior de la losa.

Autoridades de la Industria Nacional del Cemento (INC), Ministerio de Obras Publicas


y Comunicaciones (MOPC) y de la Cámara Paraguaya de la Construcción (Copaco)
se reunieron con el fin de analizar la utilización de hormigón armado para la
pavimentación de las principales rutas del país.
Según los proyectistas, este cambio beneficiará al Estado, ya que se ahorraran
importantes sumas de dinero en los trabajos viales. También se recalcó que el
hormigón requeriría de menos mantenimiento y tendría una vida útil mayor a la del
asfalto, además es mucho más resistente en terrenos fangosos o con mucha agua.
Ante cambios de temperatura muy bruscas su comportamiento plástico es muy poco a
comparación del asfalto, esto seria una razon por la cual no es conveniente utilzar
hormigon armado en las rutas.

Fuentes:
 m.paraguay.com/nacionales/analizaran-la-utilizacion-de-hormigon-armado-
para-pavimentar-rutas-150115
 Revista “Hormigonar”-abril 2015

También podría gustarte