CUESTIONARIO N1 MATERIALES 2020 2do Cuatri
CUESTIONARIO N1 MATERIALES 2020 2do Cuatri
CUESTIONARIO N1 MATERIALES 2020 2do Cuatri
1er Cuestionario
Los troncos ya revisados por el clasificador se almacenan según los pedidos de los
clientes y se identifican a la vez que son marcados con el CE (El marcado CE es el
proceso mediante el cual el fabricante/importador informa a los usuarios y autoridades
competentes de que el equipo comercializado cumple con la legislación obligatoria en
materia de requisitos esenciales) .
SODIMAC- CORRALON AMERICA
Aislantes acústicos:
Lana acústica 50 mm de espesor por 2 rollos $3745
Lana Rolac plata cubierta 50 mm de espesor por rollo 18 metros $3805
Aislante hidrófugo:
Membrana hidrófuga por rollo de 10m2 a $1000
Espuma de polietileno aluminizada de 10mm a $1500
Aislante ignifugo:
Lana Rolac plata cubierta 50 mm de espesor por rollo 18 metros $3805
5) ¿Que diferencia hay entre masa y peso? Defina cada uno de ellos
Masa: es una magnitud física fundamental que indica la cantidad de materia contenida
en un cuerpo. Como ya hemos visto anteriormente, la unidad de medida de la masa,
según el S.I (Sistema Internacional de Unidades) es el Kilogramo (Kg).
Bibliografía: http://es.wikipedia.org/wiki/Peso
6)Calcule la fuerza de gravedad entre la tierra y un objeto que tiene una masa
de 1kg, o que pese 1kg en la tierra, y otro objeto que pese 1 kg en la luna
Fuerza de gravedad entre la tierra y un objeto de 1kg
m1 ∙ m2 N . m2 (6 x 10 ¿ ¿ 24 kg)
F g=G ⇒ F g=( 6.7 x 10 ¿ ¿−11 )∙ 1 kg ∙ ¿¿
r2 2
kg (6.4 x 10¿¿ 6)2 m2=9.81 N ¿
Masa de un objeto que pesa 1kg en la luna
m1 ∙ m2 N .m 2 (7.35 x 10 ¿ ¿ 22 kg)
F g=G 2
⇒ 9.8 N=(6.7 x 10 ¿ ¿−11 2
) ∙m ∙ 2 2
¿¿
r kg (1.7 x 10¿¿ 6) m → m=5.75 kg ¿
Fuerza de gravedad entre la tierra y un objeto que pesa 1kg en la luna
m1 ∙ m2 N . m2 ( 6 x 10 ¿ ¿ 24 kg )
F g=G ⇒ F g=( 6.7 x 10 ¿ ¿−11 )∙ 5 kg ∙ ¿¿
r2 2
kg (6.4 x 10 ¿¿ 6)2 m2=49.05 N ¿
7) Cuanto pesa en la luna una persona que pesa en la tierra 75kg?
Masa de una persona que pesa 75kg
9.81∗75
F g=m∗a → a= kg=75 kg
9.81
Fuerza de gravedad entre la luna u un cuerpo de 75kg
m1 ∙ m2 N . m2 (7.35 x 10 ¿ ¿22 kg)
F g=G ⇒ F g=( 6.7 x 10 ¿ ¿−11 )∙ 75 ∙ ¿¿
r2 2
kg (1.7 x 10¿¿ 6)2 m2 → F g=127.8 N ¿
Peso de la persona en la luna
N∗1 kg
F g=127.8 =13.03 kg
9.81 N
8) Calculo la fuerza de gravedad entre la tierra y una persona que tiene 75 kg
de masa.
Dar los resultados en N, sabiendo que la Tierra tiene una masa de 6x 10 24
Kg y el radio de la
tierra 6.4x10^6 metros, el valorG=6.7x10^-11Nm2/kg2
Fg = G m1.m2/r
m1 . m2 N .m2 ( 6 ∙10 ¿ ¿ 24 kg)
⟹ F g =6.7 x 10 −11
F g=G 75 kg . ¿
r2 2
kg (6.4 ∙ 10¿¿ 6)2 m2=736.08 N ¿
Para la masa y el peso de la viga en la luna tenemos que tener en cuenta que la
gravedad en la luna es la sexta parte de la gravedad en la tierra, es decir 1.635 m/ seg2
m luna = 9720 kg
15)Que son los planetas clase 5 restringida como ser Europa o encelado
En el Sistema Solar hay dos posibles mundos oceánicos que reúnen algunos de estos
requisitos, necesarios para que un lugar sea habitable. Encélado y Europa, dos satélites
de Saturno y Júpiter respectivamente, son los candidatos más fiables, según ha revelado
hoy la NASA. "Nunca hemos estado tan cerca de detectar un lugar con algunos de los
ingredientes necesarios para que un entorno sea habitable", dice Thomas Zurbuchen, un
astrofísico de la NASA.
El gas hidrógeno, que potencialmente podría proporcionar una fuente de energía química
para la vida, se reparte por el océano que habría en el subsuelo de Encélado gracias a la
actividad hidrotermal del fondo marino. Si hubiera microbios entonces podrían usar el
hidrógeno para obtener energía, al combinar el hidrógeno con dióxido de carbono disuelto
en agua. Esta reacción química denominada metanogénesis, porque produce metano
como un subproducto, se encuentra en las raíces de la vida terrenal y pudo ser crucial
para el origen de la vida en la Tierra. La nave Cassini ha demostrado que Encélado tiene
casi todos los ingredientes necesarios para ser habitable; el fósforo y el azufre todavía no
se han detectado en el océano, pero los científicos sospechan que podrían existir, pues el
núcleo rocoso de Encélado parece ser químicamente similar a los meteoritos que
contienen ambos elementos.
Por otro lado, unas imágenes tomadas por el telescopio espacial Hubble indican que las
columnas de vapor de agua de Europa podrían ser un fenómeno real, brotando de forma
intermitente en la misma región de la superficie lunar. Una nueva imagen muestra una
columna que se eleva unos 100 kilómetros por encima de la superficie de Europa. Los
investigadores creen que, tal y como sucede con Encélado, esto podría ser una evidencia
de que el agua está siendo expulsada desde el interior de la luna.
16) Que mineral es el Olivino, y que importancia tiene para la vida?
El olivino es un grupo de minerales constituyentes de rocas, aunque el nombre se suele
aplicar con especial referencia a la principal solución sólida del grupo, que es
entre forsterita (Mg2SiO4) y fayalita (Fe2SiO4). Los olivinos son de los minerales más
importantes en la clasificación de rocas ígneas. El olivino rico en magnesio destaca por
ser el componente principal del manto superior de la Tierra.
Forma parte de los materiales químicos precursores de la vida
Bibliografía: http://energia-nuclear.net/definiciones/atomo.html
https://es.wikipedia.org/wiki/Quark
http://definicion.de/positron/
https://es.wikipedia.org/wiki/Positr%C3%B3n
Durante más de un siglo los físicos comenzando por Albert Eisten se han
cuestionado de que esta hecho el universo; se preguntaron que si suponiendo
que el universo tuvo un creador, que clase de plano utilizaría? Su objetivo era
descubrir ese plano del universo y usar la lengua de las matemáticas para
expresarlo a través de una formula. Hasta el día de hoy los científicos han
conseguido crear fórmulas para expresar distintos tipos de fenómenos naturales.
Los físicos están empeñados en encontrar LA FORMULA DEFINITIVA que es la
única fórmula para describir todos los fenómenos del universo.
20) Cuantos quarks y de qué tipo son los que componen el protón y el
neutrón.
El protón (p) está formado por dos quarks arriba y un quark abajo y el neutrón (n) por
un quark arriba y dos quarks abajo.
El quark arriba es una partícula elemental que pertenece a la primera generación de
quarks. Tiene una carga eléctrica igual a +⅔ de la carga elemental y un espín de ½,
con lo cual es un fermión y cumple el principio de exclusión de Pauli.
El quark abajo es una partícula elemental que pertenece a la primera generación de
quarks. Tiene una carga eléctrica igual a −⅓ de la carga elemental y un espín de ½,
con lo cual es un fermión y cumple el principio de exclusión de Pauli. Junto con el
quark arriba y los electrones, forma toda la materia que podemos ver y de la que
estamos hechos, gracias a que estas tres partículas son estables y no se desintegran
o decaen más.
Como todos los quarks, el quark arriba y el quark abajo tienen cargas de color, y
sienten la interacción fuerte mediante la emisión y absorción de gluones. Al sentir ésta
interacción no se encuentran a éstas partículas aisladas, se encuentran formando
hadrones con uno o dos quarks más.
Fuentes:
https://astrojem.com/teorias/protones.html
www.principiamarsupia.com/tag7electrones/
24) Por que el bosón de Higgs genera masa a algunas partículas y a otras
no…
El campo de Higgs sería una especie de continuo que se extiende por todo el espacio,
formado por un incontable número de bosones de Higgs. La masa de las partículas
estaría causada por una “fricción” con el campo de Higgs, por lo que las partículas
que tienen una fricción mayor con este campo tienen una masa mayor y aquellas que
no interactúan en absoluto con el campo carecen de ella.
Tanto las partículas W y Z, como el fotón son bosones sin masa propia, los primeros
muestran una enorme masa porque interactúan fuertemente con el campo de Higgs, y
el fotón no muestra ninguna masa porque no interactúa en absoluto con el campo de
Higgs.
Fuentes:
https://es.wikipedia.org/wiki/Bos%C3%B3n_de_Higgs
https://www.i-cpan.es/media/guia (Centro Nacional de Física de Partículas,
Astropartículas y Nuclear)
Las partículas subatómicas son más pequeñas que el átomo y puede ser una
partícula elemental o una compuesta por otras partículas subatómicas. Las partículas
subatómicas son:
Quarks: son los constituyentes fundamentales de la materia. Varias especies
de quarks se combinan de manera específica para formar partículas. Son las
únicas partículas fundamentales que interactúan con las cuatro fuerzas
fundamentales. Son partículas de espín 1/2, por lo que son fermiones. Forman
junto a los leptones, la materia visible
Neutrinos: son partículas subatómicas de tipo fermiónico, sin carga y espín
1/2.Su interacción con las demás partículas es mínima, por lo que pasan a
través de la materia ordinaria sin apenas perturbarla. No se ven afectados por
las fuerzas electromagnética o nuclear fuerte, pero sí por la fuerza nuclear
débil y la gravitatoria.
Bosones: el bosón es una partícula atómica o subatómica, de spin entero o
nulo, que cumple los postulados de la estadística de Bose-Einstein e incumple
el principio de exclusión de Pauli. Son bosones las partículas alfa, los fotones y
los nucleídos con un número par de nucleones.
Gravitón: es una partícula elemental hipotética de tipo bosónico que sería la
transmisora de la interacción gravitatoria; debe ser un bosón de espín par (2
en este caso), ya que está asociado a un campo clásico tensorial de segundo
orden.
Positrones: es una partícula de tipo elemental cuya carga eléctrica resulta
igual a la que posee el electrón, aunque positiva. Por esta característica, se
dice que el positrón es la antipartícula de esta partícula atómica.
Fermiones: es una partícula perteneciente a una familia de partículas
elementales caracterizada por su momento angular intrínseco o spin. Existen
dos tipos de fermiones elementales, que son: Los quarks y los leptones. Según
la teoría cuántica, el momento angular de las partículas sólo puede adoptar
determinados valores, que pueden ser múltiplos enteros de una determinada
constante h (Constante de Planck) o múltiplos semienteros de esa misma
constante. Los fermiones, entre los que se encuentran los electrones, los
protones y los neutrones, tienen múltiplos semienteros de h, por ejemplo ±1/2h
o ±3/2h. Los fermiones cumplen el principio de exclusión. El núcleo de un
átomo es un fermión o bosón, dependiendo de si el número total de sus
protones y neutrones es par o impar respectivamente.
Hadrones: un hadrón es una partícula subatómica formada por quarks que
permanecen unidos debido a la interacción nuclear fuerte entre ellos.
Leptones: es una partícula con espín -1/2 en el caso de los neutrinos y +/- 1/2
en los demás leptones que no experimenta interacción fuerte. Los leptones
forman parte de una familia de partículas elementales conocida como la familia
de los fermiones.
Mesones: cada una de las partículas elementales sometidas a interacciones
fuertes, son los hadrones más ligeros, de spin nulo o entero y carga bariónica
nula. Están formados por dos quarks (un quark y un anti quark).
Bibliografía: http://es.wikipedia.org/wiki/Part%C3%ADcula_subat%C3%B3mica
http://amaro-theteacher.blogspot.com.ar/2010/08/particulas-
atomicaselectron.html
26) ¿Que son las ondas gravimétricas, descubiertas hace poco, con el
choque de
dos agujeros negros?
En física una onda gravitatoria es una perturbación del espacio-tiempo
producida por un cuerpo masivo acelerado. La existencia de ese tipo de onda,
que consiste en la propagación de una perturbación gravitatoria en el espacio-
tiempo y que se transmite a la velocidad de la luz, fue predicha por Einstein en
su teoría de la relatividad general.
La primera observación directa de las ondas gravitatorias se logró el 14 de
septiembre de 2015; los autores de la detección fueron los científicos del
experimento LIGO que, tras un análisis minucioso de los resultados,
anunciaron el descubrimiento al público el 11 de febrero de 2016, cien años
después de que Einstein predijera la existencia de las ondas. La detección de
ondas gravitatorias constituye una nueva e importante validación de la teoría
de la relatividad general.
Antes de su descubrimiento solo se conocían pruebas indirectas de ellas,
como el decaimiento del período orbital observado en un púlsar binario. En
marzo de 2014, el experimento BICEP2 anunció la detección de modos-B en la
polarización del fondo cósmico de microondas, lo que sugería una prueba
indirecta de ondas gravitatorias primordiales. Los estudios combinados con el
telescopio PLANCK revelaron que los resultados de BICEPS2 podían ser
explicados por la interferencia del polvo cósmico por lo que fueron dejados de
lado a falta de más evidencias.
Las ondas gravitatorias constituyen fluctuaciones generadas en la curvatura
del espacio tiempo que se propagan como ondas a la velocidad de la luz. La
radiación gravitatoria se genera cuando dichas ondas son emitidas por ciertos
objetos o por sistemas de objetos que gravitan entre sí.
La amplitud predicha para estas ondas y los efectos observables son muy
débiles, de modo que su detección directa es extremadamente difícil. La
amplitud, de hecho, es muy inferior al ruido vibracional procedente de otras
fuentes. Tan solo los fenómenos más violentos del universo producen ondas
gravitatorias susceptibles de ser detectadas.
Los objetos que deberían emitir ondas de gravedad detectables de manera
directa son objetos muy masivos sometidos a fuertes aceleraciones o cuerpo
masivos no homogéneos rotando a gran velocidad. Se espera poder encontrar
ondas gravitatorias producidas en fenómenos cataclísmicos como:
La explosión de una supernova.
La formación de un agujero negro.
El choque de cuerpos masivos como estrellas de neutrones o la
coalescencia de agujeros negros.
La rotación de una estrella de neutrones heterogénea.
Radiación gravitatoria remanente del Big Bang. Este último caso ofrecería
datos únicos sobre la formación del universo en el periodo anterior a la edad
oscura del universo en la que el universo era opaco a la radiación
electromagnética.
Cualquier objeto con masa y aceleración produce ondas gravitatorias,
dependerá de la precisión del equipo para poder cuantificarlas, actualmente
solo hemos logrado captarlas con sucesos de una muy elevada energía.
Fuentes: https://es.wikipedia.org/wiki/Onda_gravitatoria
27) Que son las partículas virtuales y los bosones de gauge, de ejemplos.
Una partícula virtual es una partícula elemental que existe durante un tiempo tan corto
que debido al principio de indeterminación de Heisenberg no es posible medir sus
propiedades de forma exacta. El término «partícula virtual» se utiliza en
contraposición a «partícula real» para explicar las infracciones que aquella parece
cometer contra las leyes de conservación durante sus interacciones.
El término “partícula virtual” se lo utiliza en contraposición a “partícula real” para
explicar las infracciones que aquella parece cometer contra las leyes de la
conservación durante sus interacciones.
Ejemplo: los fotones son partículas reales cuando observamos en cualquier tipo de
radiación electromagnética, como la luz o rayos x. Cuando trasmite la interacción
electromagnética entre partículas como carga eléctrica los fotones son virtuales.
En física de partículas, el bosón de gauge es un bosón que actúa como portador de
una interacción fundamental de la naturaleza. Más específicamente, la interacción de
las partículas elementales descrita por la teoría de campo de gauge se ejerce por
medio de los intercambios de los bosones de gauge entre ellas, usualmente
como partículas virtuales.
En el modelo estándar, hay cuatro tipos de bosones de gauge: fotones, bosones W y
Z y gluones. Cada uno corresponde a tres de las cuatro interacciones: fotones son los
bosones de gauge de la interacción electromagnética, los bosones W y Z traen
la interacción débil, los gluones transportan la interacción fuerte. El gravitón, que sería
responsable por la interacción gravitacional, es una proposición teórica que a la fecha
no ha sido detectada. Debido al confinamiento del color, los gluones aislados no
aparecen a bajas energías. Lo que sí se podría es dar lugar a bolas de
gluones masivas (este dato no está confirmado hasta el momento).
Ejemplo: entre sus representantes más conocidos se encuentran los Fotones y el
Bosón de Higgs.
https://es.wikipedia.org/wiki/Bos%C3%B3n_de_gauge
https://www.emiliosilveravazquez.com/blog/2016/03/31/%C2%BFque-es-un-boson-
%C2%BFy-que-es-un-boson-gauge/
https://es.wikipedia.org/wiki/Part%C3%ADcula_virtual
https://abcienciade.wordpress.com/2009/11/30/particulas-virtuales-i/
28) QUE ES EL ACELERADOR DE HADRONES QUE ESTÁ ENTRE FRANCIA Y SUIZA
Y QUE SE QUIERE OBTENER
Fuentes:
http://es.m.wikipedia.org/wiki/Modelo_atómico_de_Schrödinger
http://sites.google.com/site/cinthyalizbethhdz18/quimica/modelo-atómico-de-
schrodinger
http://www.quimicas.net/2015/05/el-modelo-atomico-de-schrodinger.html?m=1
Gráfico: El deuterio y el tritio se combinan por medio de la fusión nuclear para formar
helio mas un neutrón.
Un ejemplo de fusión natural es la energía producida en el
interior del Sol. Los átomos de hidrógeno, sometidos a
enormes presiones gravitatorias, colisionan entre sí y se
fusionan a temperaturas muy elevadas (en torno a 15 millones
Cº). Cada segundo se fusionan 600 millones de toneladas de
hidrógeno, formando helio.
En la actualidad aún no hay reactores comerciales de fusión,
ya que es una tecnología por el momento experimental. Un
ejemplo es el reactor experimental de fusión ITER que se está
construyendo en Cadarache (Francia). Se trata de un proyecto de investigación
científica y de cooperación internacional que tiene como objetivo determinar la
viabilidad tecnológica y económica de la fusión nuclear por confinamiento magnético.
https://www.foronuclear.org/es/el-experto-te-cuenta/122516-que-diferencia-hay-entre-
fision-y-fusion-nuclear
32) ¿Cuál es la temperatura en el borde extremo del sol, y la temperatura en el
centro del sol?
La temperatura del núcleo del Sol es cerca de 27 millones de grados Fahrenheit, o 15
millones de grados Centígrados. La superficie del Sol presenta unos 10000 grados
Fahrenheit o 5500 grados Centígrados.
El Principio de La Incertidumbre
Este principio fue introducido a la teoría cuántica en 1927, por el físico alemán Werner
Heisenberg. Como se sabe, toda partícula tiene posición, trayectoria y, por lo tanto,
velocidad. Heisenberg formuló que se puede calcular la velocidad o la ubicación de
una partícula en un momento especifico, pero no se pueden calcular ambos valores a
la vez, porque si se calcula la velocidad, la ubicación (es decir su posición y
momentum) cambia, y viceversa.
Entonces existe una incertidumbre, una falta de certeza, sobre la posición y
momentum exacto de la partícula. Con este principio la teoría cuántica saca a relucir
su dualidad: se pueden determinar con precisión ciertas características físicas de las
partículas atómicas, pero al hacerlo se elimina la posibilidad de precisamente
determinar alguna otra característica complementaria. Es como si las partículas no
quisieran estar “atadas” a una ubicación específica, de hecho lo que se puede calcular
es solamente la probabilidad de encontrar una partícula aquí o allá, algo llamado
“ondas probabilísticas”.
La física cuántica es una teoría probabilística por naturaleza, las partículas no existen
en un lugar definitivo, sino en una “nube” de posibilidades de estar en un lugar o en
otro. Por ejemplo, se dice que un electrón tiene un 20% de encontrarse en un lugar,
un 10% de encontrarse en otro y un 70% de encontrarse en otro distinto.
Además este principio introduce indirectamente una variable: el espectador o la
persona que calcula los datos de la ubicación de la partícula.
Entrelazamiento Cuántico
Es otra extraña propiedad de las partículas atómicas. Hay partículas que pueden crear
una inusual conexión entre ellas, quedando unidas en una de sus propiedades. Por
ejemplo uniones donde si el spin de una partícula cambia, inmediatamente el spin de
la otra entrelazada cambia también, y esto lo hacen sin importar la distancia entre
ambas (milímetros, kilómetros o años luz de distancia).
Esto significa que si alguna fuerza, energía o algo similar es lo que les avisa del
cambio de spin de su compañera, esa fuerza estaría viajando más rápido que la
velocidad de la luz, lo cual estaría en desacuerdo con la Teoría de la Relatividad de
Einstein (que dice que nada viaja más rápido que la velocidad de la luz).
Einstein, en su momento, se refirió a esta inusual propiedad como una “acción
fantasmal a distancia”, algo como lo que se conoce como vudú haitiano, donde al
pinchar un muñeco con alfileres hace que un marido infiel se retuerza de dolor en el
mismo lugar del pinchonazo instantáneamente, aunque se encuentre al otro lado del
mundo.
Einstein trato de desacreditar desde los inicios de la física cuántica, esta idea; fue en
1964, a 11 años de su muerte, que John Bell resolvió el problema teorizando un
escenario donde se podría medir experimentalmente el spin de dos partículas
entrelazadas separadas por una gran distancia, este experimento se llevó a cabo en
los años 1980 y probó exitosamente que el entrelazamiento cuántico es un fenómeno
real.
El comprobar que las partículas poseen esta extraña propiedad reveló además una
nueva propiedad de la realidad: la no-localidad, esto hace referencia a que el universo
no es un sistema local para ciertos eventos físicos, porque algo que sucede “por aquí”
puede afectar algo que sucede “por allá” sin importar la distancia entre ellos.
Se refiere a que las partículas del átomo se comportan de dos maneras totalmente
diferentes dependiendo del observador, pueden comportarse como partículas o como
ondas, sin dejar de ser una sola cosa. Como, por ejemplo, ocurre con el encendedor-
abridor, un pequeño aparato que no es ni un encendedor ni un abridor, sino ambos a
la vez, lo que define su uso final es quien lo utilice y su necesidad de fumar, beber, o
ambas.
Desde inicios de los años 1800 es sabido que la luz se comporta como una onda,
luego gracias al Efecto Fotoeléctrico, donde metales irradiados con luz o rayos
ultravioleta emiten fotones, y al surgimiento de la física cuántica, se concluyó que la
luz exhibe ambas propiedades, se comporta como onda aunque su componente es
una partícula: el fotón. Eventualmente se descubrió que esta dualidad de
comportamiento onda/partícula no es algo exclusivo de los fotones de luz, sino
también de las otras partículas que componen el átomo.
Esta dualidad se puede demostrar mediando el experimento conocido como
“Experimento de la Doble Ranura”, que funciona de la siguiente manera: un aparato
que dispara partículas (fotones, electrones, etc.) se apunta hacia una placa sólida que
tiene una delgada ranura, al otro lado de la placa hay una pantalla que registra donde
impacto la partícula disparada. Bajo estas condiciones el experimento no muestra
irregularidades, se obtienen los resultados esperados, al disparar partículas (sea en
grupos o de una en una), la pantalla detrás de la placa registra una impresión de
puntos que forman una línea recta justo del tamaño y posición de la ranura que hay en
la placa.
Pero algo raro ocurre cuando se abre una segunda ranura en la placa. La observación
que uno esperaría es que en la pantalla se registren dos líneas paralelas, sin
embargo, lo que se registran son varias líneas paralelas de diferentes intensidades (5
o más), quedan impactos registrados incluso en lugares que están bloqueados por la
placa, formando un patrón llamado de máxima y mínima; este registro es el que se
obtendría si lo que pasara por las dos ranuras fuera una onda, pero en el experimento
solo se están disparando partículas una a una.
Esta es la parte extraña del experimento, porque al haber dos ranuras en la placa, las
partículas dejan de comportarse como partículas y asumen una “personalidad” de
onda.
Matemáticamente para que el patrón de onda se registre, cuando lo que pasa por las
ranuras es una sola partícula, algo asombroso debe suceder: una partícula debe
pasar por ambas ranuras a la misma vez para luego interferir consigo misma, no es
que se parte en 2, sino que una misma partícula pasa por 2 lugares diferentes al
mismo tiempo. Esto es algo que todavía no podemos explicar, ¿cómo algo puede
estar en dos lugares a la misma vez?
El Colapso de La Onda
Al inicio nadie creía posible que una partícula pudiera estar en varios lugares a la
misma vez, pero eso era precisamente lo que el resultado del experimento de la doble
ranura indicaba, asique un intento por forzar a las partículas a revelar exactamente
por cuál de las dos ranuras estaban realmente pasando, el experimento se modificó y
se instalaron sensores a las salidas de ambas ranuras.
En esta versión del experimento se dispararon las partículas una a una monitoreadas
por sensores de posición, al dispararlas las engañosas partículas hicieron algo
nuevamente inusual: dejaron de comportarse como ondas y lo que quedo impreso en
la pantalla fueron dos líneas verticales, las partículas volvieron a comportarse como
pequeñas pelotas que solo pasan por una ranura a la vez. En el instante en que los
sensores se apagan, regresa el patrón de onda donde una partícula pasa por ambas
ranuras a la vez.
Superposición Cuántica
Podría decirse que así como la ciencia en general arranca con Tales de Mileto y su decisión de
no darles papel alguno a los dioses en la explicación de los fenómenos naturales, la ciencia
moderna empieza con Galileo Galilei y su decisión tajante de separar cualquier interferencia
teológica del estudio de la naturaleza.
VIDA DE GALILEO
Nació en Pisa el 15 de febrero de 1564, el mismo año que William Shakespeare, el mismo mes
en que murió Miguel Ángel, y a pocos años de que la Iglesia desatara, o intensificara, mejor
dicho, su ofensiva de la Contrarreforma. Su familia tenía buenos contactos y una posición
respetable dentro de la sociedad, pero siempre sería un problema para ellos encontrar el
dinero necesario para mantener el «estatus», y, de hecho, durante buena parte de su vida
Galileo tendría una y otra vez problemas económicos.
Hasta los 11 años, Galileo fue educado por su padre en su propio hogar, se convirtió en un
músico excelente por derecho propio, y durante toda su vida tocó (sobre todo el laúd)
únicamente por placer.
En 1581, a los 17 años de edad, Galileo se matriculó como estudiante de medicina en la
Universidad de Pisa; Pero afortunadamente, la medicina no era cosa para él: a principios de
1583, su vida tomó un nuevo rumbo, ya que entró en contacto con Ostilio Ricci, el matemático
de la Corte, que lo inclinó en forma permanente hacia las matemáticas.
Padua
Así y todo, la situación económica de Galileo llegó a ser acuciante en 1591, cuando falleció
Vincenzo, que lejos de dejar alguna herencia sustancial a sus hijos, sólo dejó deudas. Galileo,
que era el mayor de los hijos, quedó como jefe de familia y debió ponerse a buscar otro cargo
mejor remunerado. Por eso, le echó el ojo a la cátedra de matemáticas de la Universidad de
Padua. Además de ser un empleo más prestigioso, Padua formaba parte de la República de
Venecia, un Estado rico y lo suficientemente poderoso como para no estar sometido a la
tutela teológica y política de Roma.
Galileo se movió para conseguir el puesto, visitó la propia Corte veneciana, donde recibió el
apoyo del embajador de Toscana y de sus amigos poderosos y prominentes en la República y
al final consiguió el empleo, inicialmente por cuatro años y con un salario de 180 coronas al
año. Con el permiso del Gran Duque de Toscana, Galileo aceptó este nuevo empleo en
octubre de 1592, cuando tenía 28 años de edad. Era un nombramiento por cuatro años con
opción a dos más; es de suponer que ni el mismo Galileo imaginó que se iba a quedar en
Padua dieciocho años, y que allí iba a cimentar buena parte de su obra científica.
También fue en Padua donde contrajo (o se manifestó por primera vez) una enfermedad que
iba a afectarle durante el resto de su vida, una especie de artritis (aunque imagínense que los
diagnósticos de entonces no son muy de fiar) que le produjo repetidos ataques que lo
obligaban a guardar cama durante varias semanas seguidas. Lo cierto es que a los 40 años de
edad, Galileo se había hecho ya una más que aceptable reputación como experto en filosofía
natural y matemáticas, proporcionando beneficios prácticos al Estado veneciano, y llevaba
una vida plena y feliz en Padua.
Fue en el período de Padua (y probablemente un poco antes, en Pisa) cuando Galileo empezó
a estudiar el fenómeno de la caída libre: al trabajar con esferas que ruedan sobre planos
inclinados, consiguió retardar la velocidad de caída, lo cual le permitió medir los tiempos y
minimizar el rozamiento, que ya visualizaba como una cualidad externa al fenómeno principal,
que lo perturbaba y le impedía mostrarse tal cual era, y que clasificaba como «minucia».
Lo cierto es que pronto se dio cuenta y asumió que, a pesar de las distintas velocidades, el
movimiento sobre el plano inclinado y el de caída libre eran del mismo tipo, relacionados de
una manera muy simple mediante el ángulo de inclinación del plano. Y además, llegó a una
conclusión fundamental: la velocidad de caída no sólo no depende del peso del cuerpo, sino
tampoco de la naturaleza del cuerpo, de su peso específico. Galileo la definía como un
aumento continuo de la velocidad.
El 16 de octubre de 1604, en una carta enviada a su amigo Paolo Sarpi, Galileo enunció por
primera vez la ley que siguen los cuerpos en caída libre, o sobre planos inclinados: El espacio
recorrido por un móvil es proporcional al cuadrado del tiempo empleado en recorrerlo.
También fue en esta época cuando entró en posesión de las leyes de isocronía del péndulo:
todas las oscilaciones, no importa su amplitud, toman el mismo tiempo, que sólo depende de
la longitud del péndulo y no de su peso.
El principio de inercia
El estudio de los planos inclinados llevó a Galileo a una constatación que tendría las más
importantes consecuencia.
Traten de seguir el dibujo. Galileo constata que si una esfera rueda hacia abajo por un plano
inclinado — despreciando las «minucias», claro está, como el rozamiento—, y luego trepa por
otro, alcanzará exactamente la misma altura de la cual partió (dicho en términos modernos,
recuperará su energía potencial). Si se la hace trepar por planos inclinados cada vez menos
inclinados, el trayecto para alcanzar la altura original será cada vez más largo.
Galileo da un salto conceptual y lo hace de modo puramente mental: es evidente que cuando
la inclinación del plano se aproxime a cero, los trayectos se alargarán fuera de todo límite.
Límite, ésa es la palabrita: en el límite, si el plano por el que ha de subir la esfera no tuviera
ninguna inclinación, el trayecto se haría infinito y la esfera, sobre la cual no actúa ninguna
fuerza, se seguiría moviendo por siempre con velocidad rectilínea y uniforme.
El principio de relatividad
El mismo cuerpo (el barco) está en reposo para quien viaja en él y en movimiento para quien
lo mira desde la costa: el reposo y el movimiento uniforme son indistinguibles, porque un
móvil sólo se está moviendo en relación a un punto de referencia. Ésta es una idea que,
vagamente (o no tan vagamente, en realidad), había sido adelantada por Copérnico.
Hay que decir aquí que el principio de relatividad de Galileo, que se puede enunciar también
como que ningún experimento o señal mecánica puede distinguir entre el reposo y el
movimiento rectilíneo y uniforme, no se lleva bien con el sentido común, que se inclina por la
idea de movimiento absoluto.
Galileo funda la mecánica moderna antes de 1610, pero la exposición sistemática de sus
resultados tendrá que esperar hasta 1638, con la publicación de los Discorsi.
El telescopio
En julio de 1609, durante una visita a Venecia, Galileo había oído por primera vez rumores
sobre la existencia de un aparato que permitía ver objetos lejanos como si estuvieran cerca.
Efectivamente, Hans Lippershey, un fabricante de anteojos afincado en Holanda, había hecho
el descubrimiento por casualidad durante el otoño anterior, y en la primavera de 1609 se
vendían como juguetes en París unos telescopios cuya potencia amplificadora era de tres
aumentos. En realidad, tampoco Lippershey (que lo patentó) había sido del todo original, ya
que en Inglaterra Leonard Digges (1515-1559) había construido uno, perfeccionado por su hijo
Thomas Digges.
Oídos los rumores sobre este nuevo instrumento, Galileo se puso a trabajar para construir su
propio telescopio, sabiendo únicamente que el instrumento tenía dos lentes colocadas dentro
de un tubo. Era un artesano consumado (recordemos el termoscopio, el compás, el tratado
sobre fortificaciones) y, en apenas un día, lo cual es una flor de hazaña, construyó uno. Y que
encima era el doble de bueno (literalmente: tenía seis aumentos en lugar de tres) que
cualquiera de los que andaban por ahí.
En enero de 1610, Galileo empezó su exploración sistemática del cielo. Y lo que vio cambiaría
para siempre la ya maltrecha visión que se tenía del cosmos.
En marzo de 1610, publicó un pequeño libro (obviamente dedicado al gran duque Cosme II de
Médici… no perdía de vista la cátedra) titulado Siderius Nuncius (El mensajero de los astros),
que tuvo un éxito descomunal entre las personas cultas de todo el mundo, hasta el punto que
se tradujo al chino antes de los cinco años posteriores a su publicación. Y al final consiguió su
objetivo: en mayo de 1610, aceptó la oferta de ocupar la cátedra de matemáticas en la
Universidad de Pisa (la de Ricci), siendo nombrado filósofo y matemático vitalicio de la Corte
del Gran Duque de Toscana.
Sus investigaciones fueron tan minuciosas y precisas que no hubo ninguna novedad
importante en el terreno del magnetismo durante dos siglos, hasta los trabajos de Michael
Faraday, lo cual lo convierte no sólo en un gran científico sino también en un ineludible
precursor.
En estos siglos que estamos revisando, y que constituyen el punto de inicio de la ciencia tal
como la conocemos hoy, fue central un nuevo modelo de institución que permitía agrupar
personas que tenían mucha curiosidad y el deseo de investigar la naturaleza de las cosas. La
primera fue la Accademia dei Lincei (Academia de los Linces) de Roma, cuyo nombre se inspiró
en la aguda mirada de ese felino. Fue fundada en 1603 por cuatro jóvenes. Uno de ellos,
Federico Cesi, de 18 años (1585- 1630), era el hijo del Duque de Acquasparta. Entre los otros
tres, apenas mayores que Cesi, había un médico holandés.
A pesar de estos éxitos, cuando murió Cesi, en 1630, la academia se diluyó una vez más. Su
posición se venía debilitando desde 1616, cuando apoyó el copernicanismo de Galileo. A pesar
de todo, la tradición sobrevivió por un tiempo en la Accademia del Cimento (del experimento)
en Florencia, de inspiración galileana, y que tuvo el patrocinio y sostén de los Medici
La Royal Society adoptó oficialmente el ideario baconiano, tanto en la idea clave de la ciencia
como capaz de modificar la naturaleza, como en la base inductivista de la metodología
científica (a diferencia de la Académie francesa, que fue obviamente cartesiana) y la práctica
del experimento y la experiencia como fundamental criterio de verdad. Incluso muchos
creyeron ver en la Royal Society una materialización del ideal baconiano de la Nueva
Atlántida, con la academia como la Casa de la Sabiduría: así, incluso, se la describe en la
Historia de la Royal Society de Thomas Spratt (1667).
Era un disparate, sin duda, pero es posible que este baconianismo exagerado también tuviera
sentido político, y que el culto a Bacon, ministro de Carlos I, el ejecutado padre del entonces
rey, encubriera espurios intereses monetarios: a diferencia de la Casa de la Sabiduría, la Royal
Society era una institución privada, que necesitaba autofinanciarse, y así puede ser que el
culto baconiano fuera sólo una fachada; al fin y al cabo, los miembros más conspicuos de la
Sociedad, y científicos de primer orden como Boyle o el enorme Robert Hooke, si bien no
dejaban de ser empiristas, eran plenamente conscientes de que necesitaban una buena dosis
de filosofía mecánica
La existencia o no del vacío, o su mera posibilidad lógica, había atravesado los siglos. Como les
conté al principio, el increíble Aristóteles rechazaba el vacío por cuestiones filosóficas y
lógicas: puesto que el medio es el encargado de retrasar el movimiento, el vacío permitiría
una velocidad infinita, lo cual conduciría a aceptar que un móvil pudiera estar en dos lugares
simultáneamente. La escuela atomista, por su parte, había postulado el vacío, donde se
movían libremente los átomos, para sacar a la ciencia del callejón sin salida en el que la había
metido Parménides, con su Ser inmóvil que lo llenaba todo uniformemente y no permitía
pensar en nada que no fuera él. La postulación de la existencia del vacío por parte de los
atomistas constituía, para Aristóteles, razón suficiente para rechazar de plano su teoría.
Pascal diseñó un experimento vistoso para refutar a los escolásticos: hizo llenar un tubo de
agua y otro de vino (tinto), preguntando a los asistentes cuál creían que iba a alcanzar mayor
altura. La respuesta general fue que sería el agua, ya que el vino, más volátil, dejaría emanar
más vapores. Sucedió lo contrario: el vino se elevó unos cuantos centímetros por encima del
agua. Luego de esto, Pascal realizó los famosos experimentos del monte Puy de Dome para
refutar las tesis cartesianas, que él veía como un nuevo aristotelismo (y en cierto modo tenía
razón). Midió allí la columna de mercurio a diferentes alturas sobre el nivel del mar, y pudo
comprobar que cuanto más se ascendía, más bajaba la columna: la idea de presión
atmosférica estaba en marcha (de hecho, Pascal había inventado el barómetro).
El triunfo del vacío tiene una doble significación: por empezar, mostró cómo un experimento
en la línea inductiva podía destronar una teoría derivada de una concepción y sistema
metafísico, tanto en el caso de Aristóteles como en el de Descartes, que había durado siglos.
Por el otro, fortalecía la teoría del espacio absoluto y previo, y la de los atomistas, que Newton
también adoptó y que permitiría el compromiso de 1687. El vacío había triunfado. Pero
tendría, siglos más tarde, nuevos, divertidos y vistosos avatares.
33) Importante: Haga un resumen del capítulo 40 de Historia de las ideas científicas
del gran escritor argentino Leonardo Moledo.
El modelo estándar de partículas es, más que un modelo, una teoría que identifica a todas
las partículas materiales que componen el universo y explica los modos en que
interaccionan. De acuerdo a éste, las partículas verdaderamente elementales (en el
sentido de que no pueden ser divididas ulteriormente) son:
• Los quarks, que forman a su vez otras partículas como los mesones, los bariones y los
hadrones. Dentro de los últimos (formados por tres quarks) se encuentran dos de
nuestros viejos conocidos: los protones y los neutrones. Hay, en total, seis quarks.
• Los leptones, que no están formados por quarks: electrón, muón, partícula tau y tres
tipos de neutrino.
Al mismo tiempo, hay cuatro fuerzas (la electromagnética, la gravitatoria, la nuclear fuerte
y la nuclear débil) que actúan por mediación de otras partículas que las transportan. Esto
es complicado de entender, pero simplificando un poco podemos decir, a modo de
ejemplo, que en el caso de la fuerza electromagnética el fotón es la partícula encargada
de interaccionar con la materia para transmitirla: dos cargas que se atraen o rechazan
intercambian fotones y la fuerza será más o menos intensa de acuerdo a la interacción de
las partículas. Cuando dos partículas cargadas se atraen, intercambian fotones, del
mismo modo que dos personas que intercambiaran una pelotita de golf parecerían unidas.
A las partículas fundamentales que vimos al principio (los quarks —con sus múltiples
variaciones— y los leptones) tenemos que sumarles, entonces, otras partículas:
Fotón: transporta la fuerza electromagnética
Partículas W y Z: transportan la fuerza débil
Gluones: Transportan la fuerza fuerte
Y podríamos incluir al gravitón, que transportaría la fuerza gravitatoria, pero aún no fue
detectado. Por supuesto, cada una de ellas cuenta con su respectiva antipartícula.
Parece demasiado, ¿no? Y encima, hay un problema fundamental: el modelo no cierra.
Por empezar, no incluye a la gravitación y a las interacciones gravitatorias, que se
resisten a someterse a los rigores de la mecánica cuántica; por otro lado, no explica de
dónde sacan las partículas su masa, por qué el electrón es casi dos mil veces menos
masivo que el protón o el fotón carece completamente de masa.
Para resolver este inconveniente (un inconveniente un poco más puntual, en realidad,
pero no importa), en 1964 el físico británico Peter Higgs sugirió que el universo entero
está inmerso en un campo (el campo, precisamente, de Higgs), que es el que confiere
masa a las partículas. La partícula cuántica que lo representa, aquella que interacciona
con el resto de las partículas, es ni más ni menos que el bosón de Higgs.
El Modelo Estándar propone entonces, además de las partículas y de las fuerzas, la
existencia de un campo que se encarga de darle a cada partícula su masa de acuerdo a
cómo interaccione con él. A simple vista parece difícil de entender, pero no lo es tanto.
Piénsenlo así: si la masa es la medida de cuán difícil resulta acelerar un objeto (es decir,
de cuán difícil le resulta moverse), que A tenga el doble de masa que B quiere decir que
hay que hacer el doble de fuerza para acelerar a A que para acelerar a Imagínense que
entran un vendedor de diarios y un vendedor de helados a un salón lleno de niños. Es
evidente que el vendedor de diarios pasará sin pena ni gloria, interaccionando
mínimamente con los chicos. En cambio, el vendedor de helados tendrá enormes
dificultades para abrirse paso entre la multitud. Si aceptamos la idea de que la masa es la
resistencia que ofrece un cuerpo al movimiento, se puede pensar que el heladero es más
masivo que el vendedor de diarios (por más que pesen exactamente lo mismo).En el
campo de la física de partículas, el salón funcionaría como el campo de Higgs y cada uno
de los niños como el bosón, la partícula que tiene asociada. Es como si el campo de
Higgs fuera una especie de viscosidad que impregna el espacio-tiempo y que «frena “con
diferente intensidad a las partículas elementales, otorgándoles un efecto equivalente a lo
que nosotros medimos como masa. Si nosotros observáramos el fenómeno desde afuera,
diríamos que el heladero (protón)es más masivo que el canillita (electrón) simplemente
porque interacciona de manera más intensa con los niños (bosones de Higgs) en el salón
(campo de Higgs).
De allí la importancia fundamental para la física actual del bosón de Higgs: si se lo
encontrara, podría «cerrar» el Modelo Estándar (que lista la totalidad de las partículas
elementales que existen, exceptuando a las relacionadas con la gravitación) y, si no,
obligaría a replantear varios de sus postulados.
Esta importancia capital es la razón por la cual se estudia con tanto énfasis el elusivo
bosón en el Gran Colisionador de Hadrones del CERN (Centre National pour la
Recherche Scientifique), el mayor experimento científico de la historia de la humanidad,
no sólo por el tamaño y la inversión requerida sino por las ambiciones: cerrar de manera
«definitiva» (y lo pongo entre comillas porque, como ya sabemos, nada en la ciencia es
definitivo) el modelo estándar de partículas, que explica en detalle cómo está constituido
el universo. Lo que se realiza allí es «sencillo»: se hacen colisionar haces de protones a
una velocidad cercana a la de la luz produciendo a escalas subatómicas energías
altísimas, imposibles de obtener de otra manera. Para lograr que partículas diminutas
como son los protones colisionen a esas velocidades fue necesario diseñar un túnel de 27
kilómetros de circunferencia, en cuya construcción trabajaron más de 2.000 físicos de 34
países y que costó, para ponerlo en funcionamiento, la friolera de 40 mil millones de euros
(además de los 765 millones que necesita para funcionar cada año).Pero la inversión,
aparentemente, vale la pena: además de haber proporcionado (y seguir
proporcionando)información relevante sobre el hipotético y escurridizo bosón de Higgs, se
espera que el supercolisionador ayude a entender, al recrear las condiciones que tenía el
universo menos de una milmillonésima de segundo después del Big Bang, qué es esa
«cosa» que llamamos «masa», que esclarezca al menos en parte qué es la materia
oscura y que proporcione alguna evidencia empírica a la por ahora puramente teórica
teoría de cuerdas.
El elusivo bosón
La verdad es que el bosón se hizo esperar, y no era para menos: según los cálculos, la
masa del Higgs tenía que ser por lo menos unas 120 veces la del protón y, por lo tanto,
hacía falta muchísima energía para crearlo y, después, poder observarlo. Porque de
acuerdo a lo que planteaba la teoría, el bosón de Higgs se tenía que desintegrar en otras
partículas antes de recorrer siquiera una distancia equivalente al diámetro de un protón.
Para probar que existía (o que no) se buscaban, precisamente, los productos de esa
desintegración. El tema es que dado el carácter cuántico de estos fenómenos, la mayoría
de los productos eran generados por otros mecanismos más convencionales, y es por eso
que para minimizar los márgenes de error resultaba necesario recolectar y analizar una
enorme cantidad de datos que dieran certera cuenta de la dichosa y escurridiza partícula:
pescar el bosón era como escuchar un susurro en medio de un multitudinario festival de
rock desde diez kilómetros de distancia. Distinguirlo, separándolo del ruido de fondo, no
es por cierto fácil, y sería aconsejable que el avisado lector no trate de hacerlo en su casa
como pasatiempo del domingo. Y así y todo, los datos acumulados desde que comenzó el
experimento permitieron ir poniendo poco a poco límites más estrictos a la posible masa
del posible bosón de Higgs. Según el equipo de 3.000 físicos conocido como
Colaboración Atlas, debía estar en 125 billones de electronvoltios (un electronvolt es la
unidad de energía que representa la energía cinética que adquiere un electrón cuando es
acelerado por una diferencia de potencial de 1 voltio), es decir, 125 veces más que la de
un protón y 500 mil veces la de un electrón. Y efectivamente el 4 de julio de 2012 se hizo
un anuncio: en el CMS y el Atlas (dos de los detectores de partículas presentes en el
Supercolisionador) había aparecido una masa «consistente con la masa del bosón”. La
cuestión no está cerrada y aún se sigue investigando si esa partícula es efectivamente el
bosón de Higgs o alguna otra partícula no predicha por la teoría. Sea como fuere, el solo
hecho de que haya aparecido una «masa consistente» con la predicción resulta
impresionante.
Como Neptuno gracias a los cálculos de Le Verrier, como los elementos que vinieron a
completar de a poco la tabla periódica de Mendeleiev, el bosón parece irrumpir con toda
su vacilante empiria en el mundo de las partículas elementales para darle la razón a una
predicción teórica formulada por Peter Higgs hace medio siglo y demostrar, una vez más,
el alcance de la mayor herramienta que tiene el ser humano, la que desde Tales de Mileto
hasta el Supercolisionador de hadrones hizo posible el desarrollo de esta historia.
Enlace metálico: Un enlace metálico es un enlace químico que mantiene unidos los
átomos de los metales entre sí. Estos átomos se agrupan de forma muy cercana unos
a otros, lo que produce estructuras muy compactas. Se trata de líneas
tridimensionales que adquieren estructuras tales como: la típica de empaquetamiento
compacto de esferas (hexagonal compacta), cúbica centrada en las caras o la cúbica
centrada en el cuerpo.
En este tipo de estructura cada átomo metálico está dividido por otros doce átomos
(seis en el mismo plano, tres por encima y tres por debajo). Además, debido a la baja
electronegatividad que poseen los metales, los electrones de valencia son extraídos
de sus orbitales. Este enlace sólo puede estar en sustancias en estado sólido.
Es un enlace fuerte que se forma entre elementos de la misma especie. Al estar los
átomos tan cercanos unos de otros, interaccionan sus núcleos junto con sus nubes
electrónicas, empaquetándose en las tres dimensiones, por lo que quedan los núcleos
rodeados de tales nubes. Estos electrones libres son los responsables de que los
metales presenten una elevada conductividad eléctrica y térmica, ya que estos se
pueden mover con facilidad si se ponen en contacto con una fuente eléctrica. Los
elementos con un enlace metálico están compartiendo un gran número de electrones
de valencia, formando un mar de electrones rodeando un enrejado gigante de
cationes.
El enlace metálico explica muchas características físicas de metales, tales como
maleabilidad, ductilidad, buenos en la conducción de calor y electricidad, y con brillo o
lustre (devuelven la mayor parte de la energía lumínica que reciben).
Los átomos del metal tienen por lo menos un electrón de valencia, no comparten
estos electrones con los átomos vecinos, ni pierden electrones para formar los iones.
En lugar los niveles de energía externos de los átomos del metal se traslapan. Son
como enlaces covalentes identificados.
35) Importante: Detalle los enlaces secundarios interatómicos: enlaces Van Der
Waals y enlaces de hidrógeno.
http://andresitcj.blogspot.com/2009/02/introduccion-los-atomos-se-mantienen.html
https://es.slideshare.net/karenalfonseca/enlaces-atomicos-primarios-y-secundarios
2. Existe una gama de precios amplia por lo que es adaptable a todos los
presupuestos.
Las estrellas masivas acaban su vida en una explosión cataclísmica llamada supernova. Mientras el
núcleo de la estrella se comprime a densidades enormes, las capas exteriores son expulsadas
violentamente.
Durante los primeros meses que siguen a la explosión, la supernova alcanza el brillo de
mil millones de soles. En el centro de la nube se halla un pulsar que ha sido estudiado
detalladamente. El pulsar es una estrella de neutrones que emite pulsos de radio. A la
nube de gas se le llama la nebulosa del Cangrejo porque los filamentos que tiene
recuerdan las patas de un cangrejo.
Si la estrella tenía una masa entre seis y treinta veces la masa del Sol, el núcleo en
colapso logra estabilizarse. Éste está formado exclusivamente de neutrones, y de ahí su
nombre, estrella de neutrones. ¿Se observan en el cielo este tipo de estrellas? Con un
telescopio que capte luz visible no se les puede detectar porque son pequeñísimas, como
de unos 10 kilómetros de radio, y emiten muy poca luz visible. Sin embargo, poseen en su
superficie regiones que emiten intensas ondas de radio que sí pueden ser estudiadas.
Como las estrellas de neutrones rotan velozmente, actúan como un faro cósmico. Cada
vez que dan una vuelta, la región que emite ondas de radio apunta hacia la Tierra (véase
la Fig. 13).
Figura 13. Las estrellas de neutrones rotan velozmente y tienen en su superficie regiones que emiten
copiosas ondas de radio. Cada vez que la región emisora pasa enfrente, se detecta un pulso, como si
se tratara de un faro.
Este tipo de emisión de radio en pulsos fue detectado por vez primera en 1967 por los
radioastrónomos británicos Jocelyn Beil y Antony Hewish. O sea que las estrellas de
neutrones y los pulsares son el mismo objeto. En la actualidad se conocen varios cientos
de pulsares (estrellas de neutrones).
Aun cuando las enanas blancas y las estrellas de neutrones son objetos fantásticos, no
cabe la menor duda de su existencia. Sus características son casi increíbles. Las estrellas
de neutrones son densísimas; el contenido de una cuchara de la materia que forma una
estrella de neutrones pesa más que cien millones de elefantes; sin embargo cientos de
ellas son estudiadas a diario por los astrónomos.
El tercer posible estado terminal de una estrella presenta características aún más
desconcertantes. Si la estrella tenía originalmente más de treinta veces la masa del Sol,
su núcleo continúa colapsándose más allá de la etapa de estrella de neutrones hasta
formar un hoyo negro.
Figura 14. De acuerdo con su masa original, las estrellas acaban su vida de manera distinta. Las
etapas terminales de enana blanca y estrella de neutrones han sido corroboradas mediante la
observación. Sin embargo, la existencia de los hoyos negros es aún discutida.
A diferencia de las enanas blancas y las estrellas de neutrones, que son observadas y
estudiadas rutinariamente, no existe aún prueba definitiva de que los hoyos negros
existen. ¿Por qué? El hoyo negro que la teoría predice que se debe formar a
consecuencia del colapso de una estrella, tendría un radio de sólo unos kilómetros. La
fuerza de gravedad en un hoyo negro es tan grande que ni la luz alcanza a salir de él, ya
no digamos un cuerpo material. Como el astrónomo estudia a los objetos cósmicos de
acuerdo con la radiación que emiten, parecería que un hoyo negro estaría condenado a
permanecer por siempre indetectado. Sin embargo, existen procedimientos para descubrir
de manera indirecta a un hoyo negro.
A diferencia del Sol, que es una estrella solitaria, muchas estrellas coexisten en pareja.
Supongamos que una de las estrellas de la pareja evoluciona hasta convertirse en un
hoyo negro. Si bien un hoyo negro no emite luz de ningún tipo, sí continúa ejerciendo
atracción gravitacional sobre sus contornos. Como antes de que una de ellas se
convirtiera en hoyo negro, las dos estrellas continuarán orbitando una alrededor de la otra
como dos danzantes que valsean. Pero ahora es sólo una estrella la que valsea con una
pareja invisible, el hoyo negro. Se ha observado ya varias estrellas que giran alrededor de
un compañero invisible. El prototipo es la estrella HDE 226868, asociada a una fuente de
rayos X llamada Cisne X. Si la estrella está cercana al hoyo negro, éste le arrebatará gas
de sus capas exteriores, y la atraerá hacia sí, tragándola hacia su interior. En el paso de
la estrella al hoyo negro, el gas es calentado a grandes temperaturas, emitiendo
intensamente rayos X. Esto es precisamente lo que se observa en Cisne X.
Para detectar los rayos X, que no penetran la atmósfera terrestre, fue necesario colocar
satélites astronómicos en órbita por arriba del manto protector de nuestra atmósfera que
no permite que los destructores rayos X alcancen la superficie terrestre. Sin embargo, aún
no se acepta que Cisne X es un hoyo negro, porque también la presencia de una estrella
de neutrones "obesa" podría explicar las observaciones hechas. La masa del compañero
de Cisne X es de más de ocho veces la masa del Sol, mientras que se supone que las
estrellas de neutrones no pueden exceder de cuatro masas solares. Esta situación
favorece la teoría de que Cisne X sea un hoyo negro, pero los astrónomos son personas
muy escépticas y quieren pruebas contundentes y muy claras. Recientemente, se ha
sugerido que en el núcleo de algunas galaxias, entre ellas la nuestra, mora un hoyo negro
con masa formidable, millones de masas solares y aún más. Estos hoyos negros
supermasivos pudieron haberse formado junto con el resto de la galaxia hace alrededor
de diez mil millones de años. Quizás el estudio de este tipo de objetos en el núcleo de las
galaxias dé la evidencia sólida e indiscutible que los astrónomos más incrédulos
reclaman.
40) De acuerdo a su entender, como fue el origen del universo y todas las
formas que puede ser su final.
El origen del universo comenzó con el bigbang, toda la materia el espacio y el
tiempo que existe se creo hace mas de 13 mil millones de años, por lo tanto creo
que el final del universo sea la contracción de esa gran explosión, volviendo todo a
esa singularidad de densidad infinita.
41) Vea y estudie el videl de Michio Kaku , sobre descifrando el tiempo y
haga un resumen del mismo y sobre la manipulacion del tiempo, en que
teorias se basa para suponer que se puede viajar al pasado y al futuro...
Einstein desarrollo dos teorías la teoría especial de la relatividad y la teoría general de
la relatividad, la primera contempla viajar en el tiempo al futuro y la segunda
contempla solo viajar en el tiempo al futuro sino también al pasado. Lo que descubrió
Einstein es que el tiempo se ralentiza para alguien que está en movimiento en
comparación con alguien que está quieto, en otras palabras un reloj que se encuentra
dentro de un tren en movimiento se avanza más despacio que uno que encuentra
afuera del tren.
La velocidad de la luz es constante. No importa si te mueves en dirección a ella o te
alejas, la luz siempre tendrá la misma velocidad. Sin importar a qué velocidad nos
movamos siempre podremos ver nuestro reflejo ya que la velocidad de la luz siempre
es la misma, entonces lo que tiene que cambiar es el espacio y el tiempo.
Resumiendo, cuanto más rápido nos movemos más se ralentiza el tiempo dado que la
velocidad de la luz es constante a través del universo.
Si un astronauta viaja en una nave espacial a velocidades supersónicas el tiempo
dentro de la nave será mas lento que el de la tierra, todo ira más despacio dentro de
la nave, el latido del corazón del astronauta ira más despacio junto con todos los
procesos de su cuerpo, entonces envejecerá más despacio, todo dentro de la nave
envejecerá más despacio. Esto es lo que hace posible viajar al futuro en la teoría
Por el momento se han podido acelerar partículas hasta el 99.995% de la velocidad
de la luz. Ya que los protones son partes de átomos y el cuerpo humano está formado
por átomos se cree que sería posible llevar una persona a estas velocidades
Una posibilidad sería un cohete situado en el espacio impulsado por una maquina
capaz de emitir rayos láser de gran potencia, para contrarrestar la perdida de
velocidad producida por el choque del cohete con las partículas de gas interestelar
tendía que tener un motor de antimateria
Otra posibilidad podría ser pasar tiempo alrededor de la gravedad de una estrella.
Este es otro de los descubrimientos de Albert Einstein. Los rayos de luz se tuercen y
doblan ante la presencia de objetos estelares de gran tamaño como las estrellas y los
planetas, combinados con sus estudios anteriores desembocaron en la teoría general
de la relatividad, esta teoría establece que el tiempo y el espacio so como un tejido
que se puede retorcer y comprimir dependiendo de la cantidad de masa que tengas
en un momento dado. El espacio es flexible por lo tanto es tiempo también lo es, estos
dos están ínfimamente relacionados y hasta lo llamo la cuarta dimensión.
Si un reloj viaja alrededor de un campo gravitacional muy grande este es un obstáculo
para el tiempo haciendo que transcurra más despacio. Para que esto sea más eficaz y
pudiéramos viajar al futuro lo mejor sería utilizar el campo gravitacional que se
encuentra dentro y alrededor de los agujeros negros; en el espacio existen posos con
forma cónica que ralentizar radicalmente el tiempo, si uno se acerca lo suficiente a un
agujero negro el tiempo se ralentizara tanto para él que minutos serian cientos de
años para el resto.
Viajar al pasado es más complicado, para poder viajar físicamente al pasado se
necesitaría sobrepasar la velocidad de la luz, y como Einstein demostró eso es
imposible. Pero en un espacio-tiempo curvo podemos ganarle a un rayo de luz tomar
un atajo, esto se puede lograr mediante la gravedad que curva el tiempo a tal forma
que si uno está viajando al futuro puede dar una vuelta completa y visitar un suceso
de su pasado, puedes regresar antes haber salido en ese viaje, los científicos lo
llaman curva temporal cerrada o CTC. Un estudiante de la universidad de Tulane
propuso matemáticamente que si hubiera un cilindro en rotación de longitud enorme el
espacio girando miles de veces por segundo a casi la velocidad de la luz se podría
crear una temporal cerrada, la rotación de este cilindro enorme produciría que el
espacio se doblara y eso produciría que tiempo se doblara en un bucle, si uno da la
vuelta de forma correcta podría llegar justo al momento antes de partir, lo que produce
un problema solo se puede volver al momento en que la maquina fue construida, si
quieres regresar a un lugar más alejado en el continuo es encontrar una un tipo de
máquina del tiempo que ocurra de forma natural.
Los científicos creen q una de las mejores formas de viajar en el tiempo descansa en
las cuerdas cósmicas, se cree que se crearon en el primer instante después de del big
bang. Son haces largos y finos de un material muy denso que vibra liberando energía
a medida que flotan y vuelan a través del universo, pesan alrededor de mil billones de
toneladas por centímetro (una cuerda cósmica de 1 Km pesaría más que la propia
Tierra ), J Richard Gott piensa que esta densidad extraordinaria podría hacer que las
cuerdas curvaran el espacio tiempo y para esto se necesitarían dos cuerdas. Las
cuerdas tienen una longitud infinita, vuelan por el cosmos a velocidad de la luz y se
cree que con el tiempo se estiran; ahora cuando dos cuerdas cósmicas pasan una a
lado de la otra a la mitad de la velocidad de la luz generan tanta energía que
distorsionan el espacio-tiempo de forma muy extraña, lo deforma a su alrededor y es
como si se le quitaran dos porciones de pizza opuestas luego el espacio-tiempo se
une en los espacios vacíos formando un cono y en ese momento se forma un bucle
temporal cerrado, deja al descubierto un atajo por el cual uno podría adelantarse a un
haz de luz que viaja por el camino más largo, por el momento la única forma de llevar
a cabo esto es por un túnel de gusano y la mejor forma de encontrar un máquina del
tiempo de agujero de gusano es en un conjunto de agujeros negros, lo malo es que en
agujero negro todo se desintegra pero si el agujero negro estuviera girando se podría
saltar dentro de él, la fuerza centrífuga es tan fuerte que mantiene un garganta abierta
dentro de él pudiendo comunicarse un agujero negro con otro y saliendo en el
segundo ya en un tiempo distinto.
Sin embargo el viajar al pasado conlleva muchos problemas como las paradojas
temporales, si viajo al pasado y mato a mi abuelo yo no podría haber viajado al
pasado y no podría haber matado a mi abuelo.
Si hubiera mas de un universo y mas de un alinea de tiempo como las vías de tren
que de una se divide en dos y puede pasar de una a otra, si existe más de una línea
temporal se podría ir a un pasado remoto, un futuro lejano e incluso a un presente
alternativo
La solución `puede estar en el mundo cuántico donde un electros puede estar en dos
lugares a la misma vez, se trata del principio de incertidumbre de Heidelberg, esto no
tiene lógica para cosas grandes pero ocurre todo el tiempo en el mundo cuántico en
aparatos electrónicos. Una forma de resolver esto es que existen electrones paralelos
en universos diferentes lo que plantea una multiversion de universos. Con esto se
podría resolver la paradoja temporal , si un viajero del tiempo regresa al pasado y
mata a su abuelo simplemente se pasaría a otro universo donde un viajero del tiempo
mata a su abuelo.
42) Ver y estudiar el video Mas Alla del Big Bang, hacer un resumen del mismo...
El universo se expande día a día; para entender o llegar a esa conclusión, pasaron
muchas teorías, muchos pensadores y muchos años.
Podríamos empezar con el hombre primitivo, para él el mundo era hostil, duro y
caótico, intentaban conectar con el cielo, que ellos consideraban como hogar de los
dioses, a través de estructuras sencillas, la más importante de la época es el
Observatorio solar de goseck, que lo usaban para calcular las épocas del año con la
posición del sol, de esta manera les servía la agricultura, tomaban al cielo nocturno
como un reloj.
Luego vieron ligada la astrología con la astronomía, estudiaban el cielo debido a que
según su movimiento pronosticaban el futuro; dividieron al cielo en sectores según las
formas que les encontraban a las estrellas.
Hace aproximadamente 2000 años gracias a las matemáticas lograron estudiar al sol
y a la luna, los griegos vieron 5 planetas y le dieron los nombres de sus dioses.
El filósofo griego Aristóteles imaginó la Tierra en el centro del universo, y dijo que el
universo era finito.
En el siglo I Tolomeo, detalló con precisión las sendas de los planetas mediante
epiciclos, también predijo el comportamiento futuro de los planetas.
En 476 d.C la astronomía se detuvo, con la división y caída del imperio romano.
Recién se volvió en el siglo XV d.C. con la teoría del Heliocentrismo propuesta por
Nicolás Copérnico, el planteaba que en realidad el centro del universo era el sol y no
la Tierra “De ninguna otra forma se haya una conexión más exacta y armoniosa entre
el tamaño de una orbita y su duración”. Además descubrió que la Tierra rotaba
respecto a un eje cada 24 hs.
Copérnico nunca se animó a publicar sus teorías debido a que contradecía de cierta
manera lo que decía la iglesia. Fue Johanes Kepler, quien se basó en el libro
“Revoluciones de las esferas celestes” de Copérnico para dar a luz todo lo que
Nicolás había descubierto pero no publicó. Kepler mejoró lo que se había descubierto,
propuso que el concepto de círculos perfectos era erróneo, por lo tanto los planetas
viajaban en elipses alrededor del sol, y cuando se acercaban al sol aumentaban su
velocidad. Lo que no se logró explicar es ¿por qué el sol influía en la velocidad de los
planetas?
A fines del siglo XVII un filosofo italiano Galileo Galilei, estudió el cielo mediante un
telescopio (instrumento que revolucionó a la época) ya que acercaba objetos distantes
mediante dos lentes y un tubo. Creó un telescopio de 30 aumentos, con el observó el
cielo, donde pudo descubrir los cráteres de la luna, los anillos de Saturno, que Venus
pasaba por fases como la luna.
Galileo iba en contra a las estructuras, se lo tomaba como el mensajero de las
estrellas
El 1693 el papa obliga a renunciar a sus investigaciones, y lo pone bajo arresto
domiciliario, mientras pasó sus últimos años, se dedicó a la observación del por qué
los elementos al caer, independientemente de la masa, caían a la misma velocidad.
En 1643 nació Isac Newton, quien años más tarde descubrió el mecanismo de como
se movían los planetas y todo lo que nos rodea. Se basó en las matemáticas para
describir el universo. El sol actuaba como un imán gigante. De la unión de la Teoría
de Kepler y de Copérnico introdujo una nueva fuerza en el universo llamada
“GRAVEDAD” que es la fuerza que a distancia mantiene todo en su sitio. Las leyes de
Newton explicaban casi todas las leyes del movimiento. “Todo lo que tiene masa atrae
a todos los objetos que tienen masa”.
En 1879 nació en Suiza otro gran científico, probablemente el más importante del
siglo, Albert Einstein quien en 1905 publicó una teoría sobre el espacio y tiempo “LA
RELATIVIDAD GENERAL”, con ella postulaba que el universo era infinito y eterno, e
incluía a la gravedad en el tejido espacio-tiempo.
El espacio tiempo se curva ante la presencia de la materia, la gravedad es un tejido
de la defomación espacio-tiempo, ni la luz escapa de su influencia, esto se demostró
viendo objetos detrás del sol, ya que los objetos podían deformar el espacio-tiempo.
TEORÍA DE LA RELATIVIDAD TENIA UN PROBLEMA, la masa se junta por efecto
de la gravedad, pero ¿que hacía que se separará?, Einstein propuso una fuerza igual
y opuesta para mantener todo estático, que no tuvo un principio ni tendrá un fin, pero
en realidad en las ecuaciones se podía ver que el universo en realidad es dinámico y
cada vez se expande más.
Surgieron teorías como la del BIG BANG en la cual se proponía que el universo tuvo
un principio, el que inició esta idea fue LEMAITRE en 1920, en el cual proponía que el
universo se expandia, y propuso la teoría del ATOMO PRIMOGENEO pequeño,
denso y caliente a partir del cual dio inicio a todo.
En 1925 Hubble propuso que el sol era una estrella entre millones y creo una vela
estándar, en la cual se conoces la intensidad de la estrella, podes calcular a que
distancia se encuentra, de esta manera intento calcular la edad del universo, y obtuvo
como resultado 2.000 millones de años, lo cual no podía ser, este calculó fue
inexacto.
Descubrió la nebulosa de Andrómeda que se encuentra a un millón de años luz de
nosotros y es un universo independiente (además de la via láctea). Además pudo
observar que las galaxias se alejan unas de otras lo cual mostraba que el universo no
era estatico.
A mediados del siglo xx se produjo la teoría del estado estable, en la cual se
postulaba que el universo siempre existió y nunca tendría fin. El universo se había
formado a partir de los átomos de hidrogeno, que se fundían dando lugar al helio. Esta
formación de compuestos se creaban en el núcleo de las estrellas.
En oposición a este postulado George Gamoff, decía que el hidrogeno y el helio se
crearon a partir de un gran estallido a temperaturas de miles de grados mas que el de
cualquier estrella, y que si en algún momento hubo tanto calor, todavía no se podría
haber enfriado.
En 1960 se construyó un RADIOMETRO y se buscó la radiación presente en el big
bang, con un radiotelescopio (construido por PENSA Y WILLSON) captaron ruido
estatico proveniente de todas partes y en todas direcciones. Lo que confirmó la Teoría
del áomo primitivo.
Hoyle propuso en el siglo xx que la temperatura era uniforme en el espacio sideral,
que el universo había tenido un volumen diminuto, y se expandió más rápido que la
luz. Lo cual no era posible ya que el limite de velocidad es el de la luz.
Alan Guth propuso que todas las fuerzas estaban unidas en una super fuerza, antes
de dividirse no habían leyes validas. Se expandió tan rápido que mantuvo la
uniformidad de calor que tenían cuando estaban todas juntas. Este calor fósil y
remanente se vió fotografiado por un satélite ( WMAP Satélite) y se comparó el antes
y el ahora. Al comprobar con las fotografías que el calor era uniforme, se aceptó la
idea del atomo primitivo y que fue mucho mas pequeño que la fracción de un átomo,
estaba hipercaliente y las 4 fuerzas se encontraban concentradas y amalgamadas en
1 fuerza. La gravedad se separa de las fuerzas cuando explota y el universo se
empieza a expandir, se enfría liberando energía y generando la hiperinflación del
universo.
A menos de un segundo del estallido Las 4 fuerzas se dividieron, en 3 minutos la
temperatura del universo desciende a 555.555.577 °C dando lugar a la formación de
hidrogeno, que luego al fundirse forma helio.1 millon de años después Luz viaja a
través de la gravedad, Estallido de la explosión forma estrellas y genera el nitrógeno,
oxigeno y carbono.
9 millones de años después Materia y gravedad generan una estrella perfectamente
típica, el calor disipa la fusión termonuclear y nace una estrella, el flujo estelar despeja
los gases residuales disco circunestelar de polvo y se une a una sequita de planetas y
lunas, este cumulo de polvo estelar adquiere la temperatura necesaria para formar
agua en la atmosfera y las reacciones químicas por efecto del agua generan vida.
156.000 millones de años luz el sol se quedará sin combustible nuclear que le da
energía, y empezará a comerse a los planetas más cercanos a él como mercurio, al
llegar cerca de la Tierra evaporará el agua, y también lo absorberá; el combustible del
sol provocara que se contraiga y pase a ser una enana blanca y viajará en la nebulosa
planetaria del espacio. Debido a las barreras atmosféricas el calor se agota y se
vuelve el sol una enana negra.
Todo esto debido a la energía oscura, el universo se sigue expandiendo y cuando
venza la gravedad se destruirá todo, hasta los átomos serán destruidos por esta
energía oscura que desconocemos(Teoría del Fin del Universo)
TODOS ESTAMOS LIGADOS UNOS A OTROS BIOLOGICAMENTE, A LA TIERRA
QUIMICAMENTE Y A UNIVERSO ATOMICAMENTE. ESTAMOS EN EL UNIVERSO
Y ÉL ESTÁ EN NOSOTROS.
43) VEA LOS VIDEOS SOBRE HISTORA DE LA HUMANIDAD Y LOS
MATERIALES, EL I Y II HAGA UN RESUMEN DEL MISMO…ESTUDIE ESTE
RESUMEN PARA EL EXAMEN DEL COLOQUIO
Hace 2 millones y medio de años comenzó la Edad de Piedra, el hombre utilizo
piedras afiladas para cortar, cazar y defenderse de animales y otros hombres; con el
tiempo creo flechas, lanzas, hachas.
El descubrimiento del fuego hace 200 mil años fue fundamental. El mismo les permitió
cocinar, protegerse del frio, iluminar, por ejemplo, cuevas para buscar piedras y
minerales dando origen a la Industria Minera que permitió el descubrimiento de
nuevas materias primas y a la Alfarería, con la cual el hombre creo recipientes,
ladrillos, tejas y el horno alfarero (base del horno metálico, con el que inicio la
Metalurgia).
Este video habla sobre los nanomateriales. La nanotecnología se puede definir como
la ciencia de lo pequeño (del orden de 1Nm), un nanómetro es
10−9 m=0,000000001m. Es decir que la nanotecnología son las ramas de la ciencia y
de la tecnología que trabajando juntas desarrollan nuevos materiales y nuevos
dispositivos, aprovechando propiedades atómicas y moleculares a escala de los
nanómetros.
Los nanomateriales son aquellos en los cuales introducimos nuevas propiedades,
introduciéndoles nanosistemas. Por ejemplo: el hormigón no se puede flexionar
porque fractura, se rompe, un experimento en el cual se fabrica un hormigón con
nanotubos de carbono muestra que éste tiene una capacidad de flexión muy alta (10
veces más que un hormigón común). Estos nanotubos de carbono se incorporan en el
proceso del hormigón, forman una estructura y hacen que este material sea mucho
más elástico que el material tradicional.
Actualmente, en todo el mundo científicos de distintas áreas utilizan micro y
nanotecnología con aplicaciones que van desde la introducción de mejoras en
productos de uso diario hasta el desarrollo de innovaciones. Se utiliza nanotecnología
en la producción de objetos tecnológicos, en el procesamiento y envasado de
alimentos, en prendas con telas antimanchas, antiarrugas, en pinturas que resisten al
rayado o en artículos deportivos. Se utilizan también para mejorar los sistemas de
aislamientos, para sistemas de iluminación más eficaces (lo que permitirá grandes
ahorros de energía), el medio ambiente se va a ver beneficiado con esta nueva
tecnología.
Cuando se habla de métodos de fabricación, o de producción, de objetos o
dispositivos nanotecnológicos, hay dos metodologías: de arriba hacia abajo ir
achicando los dispositivos, que se llama “top-down” (ir reduciendo cada vez más las
dimensiones de un dispositivo); la otra metodología se conoce como “bottom-up”, de
abajo hacia arriba (ir sumando o agregando moléculas en forma muy controlada para
construir objetos precisos).
Entre todas las nanoestructuras que existen hay que destacar los nanotubos de
carbono y los fullerenos. Un nanotubo de carbono es un arrollamiento de un plano de
grafeno sobre sí mismo para formar un tubo a escala nanométrica, los nanotubos de
carbono tienen propiedades mecánicas muy impresionantes como que los dos
extremos se encuentren unidos por una cadena de átomos de carbono
unidimensional. Los fullerenos son estructuras que tienen la forma de una pelota de
futbol formada por hexágonos que en cada uno de sus vértices tienen un átomo de
carbono.
Bibliografía: http://www.arquitecturadecasas.info
http://ideasparaconstruir.com
http://casas.elbierzodigital.com
Propiedades Mecánicas
Estas quizás son las más importantes, ya que nos describen el comportamiento de
los materiales cuando son sometidos a las acciones de fuerzas exteriores. Una
propiedad muy general de este tipo es la resistencia mecánica, que es la resistencia
que presenta un material ante fuerzas externas. Algunas más concretas son:
Elasticidad: propiedad de los materiales de recuperar su forma original cuando deja de
actuar sobre ellos la fuerza que los deformaba. Un material muy elástico, después de
hacer una fuerza sobre el y deformarlo, al soltar la fuerza vuelve a su forma original.
Lo contrario a esta propiedad sería la plasticidad.
Plasticidad: propiedad de los cuerpos para adquirir deformaciones permanentes.
Maleabilidad: facilidad de un material para extenderse en láminas o planchas.
Ductilidad: propiedad de un material para extenderse formando cables o hilos.
Dureza: es la resistencia que opone un material a dejarse rayar por otro. El más duro
es el diamante. Los diamantes solo se pueden rayar con otro diamante. Para medir la
dureza de un material se utiliza la escala de Mohs, escala de 1 a 10, correspondiendo
la dureza 10 al material más duro. Si quieres saber más sobre esto visita la siguiente
página: Escala de Dureza Mohs.
Tenacidad: es la resistencia que ofrece un material a romperse cuando es golpeado.
Fragilidad: seria lo contrario a tenaz. Es la propiedad que tienen los cuerpo de
romperse fácilmente cuando son golpeados. El metal es tenaz y el vidrio es frágil y
duro.
Propiedades Térmicas
Determinan el comportamiento de los materiales frente al calor.
Conductividad térmica: es la propiedad de los materiales de transmitir el calor,
produciéndose, lógicamente una sensación de frió al tocarlos. Un material puede ser
buen conductor térmico o malo.
Fusibilidad: facilidad con que un material puede fundirse (pasar de líquido a solido o
viceversa).
Soldabilidad: facilidad de un material para poder soldarse consigo mismo o con otro
material. Lógicamente los materiales con buena fusibilidad suelen tener buena
soldabilidad.
Dilatación: es el aumento de tamaño que experimenta un material cuando se eleva su
temperatura.
Nota: Las juntas de dilatación (separación) se hacen para que al aumentar de
volumen por el calor el material pueda alargarse sin curvarse.
Propiedades Ópticas
Se ponen de manifiesto cuando la luz incida sobre el material.
Materiales opacos: no se pueden ver los objetos a través de ellos.
Materiales transparentes: los objetos se pueden ver a través de ellos, pues dejan
pasar los rayos de luz.
Materiales translúcidos: estos materiales permiten el paso de la luz, pero no dejan ver
con nitidez a través de ellos. Por ejemplo el papel de cebolla.
Propiedades Acústicas de los Materiales
Determinan la respuesta de los materiales ante el sonido.
Conductividad acústica: es la propiedad de los materiales de transmitir el sonido
Decibelímetro: mide el sonido en decibelios. Los sonidos que percibimos deben
superar el umbral auditivo (0 dB) y no llegar al umbral de dolor (140 dB)
https://www.areatecnologia.com/TUTORIALES/PROPIEDADES%20DE%20LOS
%20MATERIALES.htm
48) DESARROLLE SOBRE CLASIFICACIÓN DE LOS MATERIALES SEGÚN SU
ORIGEN
●Materiales naturales Son todos aquellos que se encuentran en la naturaleza.
Constituyen los materiales básicos a partir de los cuales se fabrican los demás
productos. Es posible que solo pasen a ser útiles para el hombre cuando se someten
a un proceso de purificación, y no por eso dejarán de ser naturales. Las personas
utilizamos materiales naturales con diferente origen: mineral, vegetal o animal.
Origen vegetal: se obtienen a partir de las plantas. El material de origen vegetal más
importante es la madera, pero también existen otros que empleamos de forma
habitual, como las fibras vegetales (algodón, lino, mimbre) o el corcho.
Origen animal: Se obtienen a partir de animales; Por ejemplo, el cuero o la lana que
usamos en muchas prendas de vestir, en bolsos, zapatos, etc.
Los dos tipos más comunes de aerogel se derivan del silicio y del carbono.
Propiedades del Aerogel
- El material de menor densidad (más ligero), por lo general una 15 veces más
pesado que el aire, aunque algunos pueden llegar a solo 3 veces más.
- Gran aislante térmico y acústico. Es capaz de proteger 39 veces más que la mejor
fibra de vidrio. De hecho su uso industrial más difundido es el empleo como aislante
térmico en las ventanas de los edificios para evitar la pérdida de calor o frío.
- Bajo índice de refracción, el más bajo para un sólido. Esta propiedad hace que no
se distorsionen las cosas al verlas a través del aerogel.
- El aerogel de tipo translúcido, permite la entrada de la radiación solar pero impide el
escape de calor, como en el caso de los cristales.
La peor propiedad del aerogel es que es un material muy frágil, es decir se rompe al
darle un golpe muy fácilmente. El aerogel al golpearlo se convierte prácticamente en
arena. Ya existen algunas soluciones a este problema. Una de ellas es echar el
aerogel líquido alrededor de una manta de fibra de poliéster. Esta manta sirve de
esqueleto del aerogel cuando solidifica y lo hace menos frágil. Esto se llama "tela de
aerogel".
Aerogel de grafeno
El aerogel de grafeno es el material más liviano que el ser humano ha podido crear.
Sin duda, las aplicaciones físicas que podrá tener serán muchas, ya que, incluso
colocado sobre los pétalos de una flor, es incapaz de dañarla por su bajo, bajísimo
peso.
El aerogel de grafeno es extremadamente elasico y presenta una gran capacidad de
absorción de aceites. Puede absorber hasta 900 veces su propio peso.
Ensayos tecnológicos:
Los ensayos tecnológicos son en general, procesos instrumentales ejecutados
mediante metodologías arbitrariamente aceptadas como referentes o
desarrollados “ad hoc”, que trata de poner de manifiesto, cuantificándolas,
diversas características asociadas al comportamiento en la fabricación o en el
servicio, de los materiales industriales. Todo ello realizado de mutuo acuerdo
entre el proveedor y el cliente, con arreglo a una normativa general o un
procedimiento particular de ensayo y evaluación.
Ensayos de control:
Los ensayos de control consisten en el establecimiento de sistemas que nos
permitan medir los resultados actuales y pasados en relación con los
esperados, con el fin de saber si se ha obtenido lo que se esperaba, corregir,
mejorar y formular nuevos planes. Comprende por lo mismo tres etapas.
Establecimiento de normas
Operación de controles
Interpretación de resultados
Ensayos científicos:
Un ensayo científico es un intento por acercarnos al entorno de un problema
de investigación, generar una explicación de cómo el que escribe analiza el
mundo en relación con la temática propuesta
Homogéneo.
Carecer de grietas.
Ser resistente a las cargas que debe soportar.
Inalterables por agentes atmosféricos, y en el caso de ser alterable, conocer
cómo será alterado y sus efectos.
No deben ser absorbentes o permeables en proporciones mayores al 4,5%.
Adherente al mortero.
Resistente al fuego.
Inertes, o en el caso de ser activos que posean componentes positivos para el
hormigón.
Ser limpios, sin cubiertas que puedan afectar la unión con el cemento, o
partículas poco solidas o impurezas que lo afecten.
La gran variedad de material granular que se incorpora en el
hormigón hace que sea muy difícil la
expresión de una definición porcompleto satisfactoria de
“Agregado”. Por lo que aquí se
dan variasdefiniciones según tres clasificaciones: por su procedencia, por su tamaño
y por su gravedad específica.
1. Por su Procedencia
Agregados naturales.- Formados por procesos geológicos.
Agregados artificiales.- Provienen de un proceso de transformación de los
agregados naturales, dichos agregados artificiales son productos
secundarios. Algunos de estos agregados son los que constituyen la escoria
siderurgica, la arcilla horneada, el hormigón reciclado, piedra triturada
(chancada), etc.
· Piedra triturada.- Producto que resulta de la trituración artificial de rocas,
piedra boleada o pedruscos grandes, del cual todas las caras poseen
aristas bien definidas, resultado de la operación de trituración.
· Escoria siderúrgica.- Residuo mineral no metálico, que consta en
esencia de silicatos y aluminosilicatos de calcio y otras bases, y que se
produce simultáneamente con la obtención del hierro.
2. Por su Tamaño
Agregado grueso.- Aquella porción de un agregado que es retenida por el
tamiz No. 4 (de 4.75 mm).
El agregado grueso utilizado en nuestro medio es denominado “Grava”, que resulta de
la desintegración y abrasión naturales de la roca o procede de la trituración de esta.
Agregado fino.- Aquella porción de un agregado que pasa por el tamiz No. 4
(de 4.75 mm) y es retenida de modo predominante por el No. 200 (de 75 µm).
El agregado fino utilizado en nuestro medio se denomina “Arena”, este resulta
de la desintegración y abrasión naturales de la roca o procede de la trituración de
esta.
*Ligeros, Gs < 2.5. Los agregados ligeros, como la arcilla esquistosa y la expandida,
la escoria expandida, la Vermiculita, la Perlita, la Piedra Pómez y las Cenizas, se
utilizan para producir hormigón aislante, para unidades de mampostería o estructural
ligero que pesa entre 400 y 2000 kg/m3.
*Normales, 2.5 < Gs < 2.75. Los materiales principales que se usan en el hormigón
de peso normal, por lo común de 2300 a 2500 kg/m3, incluyen las arenas y gravas,
roca triturada y escoria siderurgica. Las rocas trituradas de uso más común son el
Granito, Basalto, Arenisca, Piedra Caliza y Cuarcita.
*Pesados, Gs > 2.75. Los agregados pesados, como la Magnetita, la Barita o el Hierro
de desecho, se usan para producir hormigón de 2900 a 3500 kg/m3, utilizado para
blindaje contra la radiación y para contrapesos de hormigón.
La tabla 2.1 da los valores promedio para las propiedades físicas de los tipos
principales de rocas.
.
63) Que características tienen los agregados de hormigones reciclados,
donde los utilizaría y por qué.
Fuentes:
Siendo:
- x: Los valores que pueden tomar los individuos de la población, que se distribuyen
en forma continua según la función f(x), llamada función de densidad o distribución.
- μ: La media de la población.
- σ: El desvió estándar de la población.
La curva de Gauss tiene la forma de una campana. Sus valores extremos tienden en
forma asintótica al eje de las abscisas. Pero no lo cortan. Integrando la curva de
Gauss entre -∞ y un determinado valor xi podemos conocer la cantidad de individuos
de valores menores que xi.
Aplicación a ensayo
La resistencia a la compresión del hormigón normalmente se la cuantifica a los 28
días de fundido el concreto, aunque en estructuras especiales como túneles y presas,
o cuando se emplean cementos especiales, pueden especificarse tiempos menores o
mayores a esos 28 días. En túneles es bastante frecuente utilizar la resistencia a los 7
días o menos, mientras en presas se suele utilizar como referencia la resistencia a los
56 días o más. La resistencia del hormigón se determina en muestras cilíndricas
estandarizadas de 15 cm de diámetro y 30 cm de altura, llevadas hasta la rotura
mediante cargas incrementales relativamente rápidas.
La resistencia característica a la compresión de un hormigón (f'c), utilizada en diseño
estructural, se mide en términos probabilísticos, definiéndose que solamente un
pequeño porcentaje de las muestras (normalmente el 5%) puedan tener resistencias
inferiores a la especificada, lo que da lugar a que la resistencia media de las
muestras(fm) siempre sea mayor que la resistencia característica. Las probetas
cilíndricas de 15x30 cm. son las que se utilizan para determinar la resistencia a
compresión del hormigón. Para que ellas puedan garantizar su resistencia, deben ser
confeccionadas, curadas y ensayadas siguiendo estrictamente lo determinado en las
Normas. Los valores de resistencia resultantes de los ensayos, no tienen mucho
significado si la toma de muestras, confección de las probetas, protección, curado,
preparación de las bases y el ensayo a compresión, se hacen apartándose de lo
especificado en las Normas IRAM respectivas. Es difícil probar cuándo se han
producido deficiencias en la preparación de las probetas cilíndricas. Sin embargo, hay
unos pocos detalles que pueden ayudar al operador que ha fabricado a conciencia un
hormigón de buena calidad, a reivindicar la misma.
Cuando se debe construir una estructura proyectada para una f ' c (resistencia
especificada) dada, el Reglamento CIRSOC 201-2005 indica que la mezcla de
hormigón a utilizar en esa estructura debe dosificarse con una resistencia media f ' cr ,
que resulta de las expresiones (1) a (4), según el Modo de Control a aplicar en la
obra. Debe quedar claro que f ' cr es la resistencia que se obtiene es la resistencia que
se obtiene en laboratorio, como promedio de los resultados de las probetas
moldeadas con el pastón ajustado durante la dosificación de la mezcla que luego se
usará en la obra.
La resistencia de diseño de la mezcla de hormigón que se utilizará en obra, es la
resistencia media de rotura a compresión para la cual se dosifica dicha mezcla. La
resistencia media de las probetas moldeadas con la mezcla en los ensayos de prueba
debe ser igual o mayor que la resistencia de diseño de la mezcla calculada de
acuerdo con:
Modos de Control
Modo de Control 1:
La resistencia de diseño de la mezcla debe ser mayor que los valores que resulten de
aplicar las siguientes ecuaciones:
f ' cr = f ' c + 1,34 Sn (1)
Modo de Control 2:
La resistencia de diseño de la mezcla debe ser mayor que el valor que resulte de
aplicar las siguientes expresiones:
f ' cr = ( f ' c + 5¿ + 1,34 Sn (3)
Siendo:
f ' c: Resistencia especificada a la compresión del hormigón, en MPa
Fuentes:
Giovambattista, Alberto. Hormigón. Editorial INTI. Argentina. 2011
66) DESARROLLE LA CURVA DE GAUSS SOBRE LA ACEPTACIÓN Y
CONFORMIDAD DEL HORMIGÓN EN OBRA, MEMORIZAR SUS ECUACIONES Y
SABER DESARROLLAR UN CASO.
Formulas:
2
√
Sn= (X −Xi)
n−1
; Sn: desviacion estandar
S
= ; : calidad de trabajo
f ' cr
❑min prob =❑m-3* Sn ;❑min prob : minimo probabilistico
Para el H1:
prome 24,5666
dio= 667
desv 7,26200
est= 947
24,5666
fcr'= 667
14,8355
fc'= 74
calidad 0,29560 29,5604
trab= 418 185
min
ensayo
= 12
max
ensayo
= 38
sigma 24,5666
m= 667
min 2,78063
prob= 824
max 46,3526
prob= 951
Modo de Control 1
fcr' 24,566666
= 7
fcr'
= 28,256056
Modo de Control 2
fcr' 29,566666
= 7
fcr'
= 31,756056
Para el H2:
prome 26,5666
dio= 667
desv 2,99059
est= 829
26,5666
fcr'= 667
22,5592
fc'= 65
calidad 0,11256 11,2569
trab= 957 572
min 20
ensayo
=
max
ensayo
= 32
sigma 26,5666
m= 667
min 17,5948
prob= 718
max 35,5384
prob= 616
Modo de Control 1
fcr' 26,566666
= 7
fcr'
= 26,027359
Modo de Control 2
fcr' 31,566666
= 7
fcr'
= 29,527359
72) Importante: Del libro de Carles Broto sobre patologías, detalle sobre
causas de la alteración de la durabilidad de los materiales.
CAUSAS FISICAS:
Los cambios o alteraciones físicos de un material son los que se manifiestan mientras
se mantiene la causa que los ha originado. Implican una alteración de la distribución
interna de su estructura de átomos, moléculas e iones y, normalmente, provocan
únicamente una modificación de la forma o de la apariencia.
Humedades: La humedad se puede definir como la presencia no deseada de
agua en estado líquido en lugares o períodos de tiempo variables. Por tanto,
cuando el agua se presenta en estado gaseoso no puede hablarse propiamente
de humedad. Por varias razones que no son difíciles de entender, la presencia de
agua, y por tanto la posible aparición de humedades, es algo inherente a una obra
o a un edificio ya construido.
Inestabilidad física y química del agua:
La humedad se puede definir como la presencia no deseada de agua en estado
líquido en lugares o períodos de tiempo variables. Por tanto, cuando el agua se
presenta en estado gaseoso no puede hablarse propiamente de humedad. Por varias
razones que no son difíciles de entender, la presencia de agua, y por tanto la posible
aparición de humedades, es algo inherente a una obra o a un edificio ya construido.
Tensión superficial:
La tensión superficial del agua es más grande que la de cualquier otro líquido y ello
tiene importantes consecuencias en la capilaridad de los materiales. En pocas
palabras, por tensión superficial, que es un fenómeno molecular propio de los líquidos,
se entiende el campo de fuerzas libres existente sobre la capa superficial de
cualquier fluido. También suele definirse como la capacidad de la capa externa de un
líquido para adoptar la mínima superficie.
Tipología de humedades:
DE OBRA: debida al contenido residual del agua utilizada en los procesos
constructivos y que no se haya evaporado, así como al agua que contienen los
propios materiales.
CAPILAR: el agua procede del terreno sobre el que se encuentra el edificio y, por
capilaridad, asciende por los elementos que están en contacto con el terreno.
DE FILTRACIÓN: causada por la acción de la lluvia y el viento. El agua penetra
a través de elementos constructivos.
DE CONDENSACIÓN: la condensación del aire puede dar lugar a la formación
de gotitas que cuando se van agregando llegan a formar núcleos húmedos. Este
fenómeno se puede producir tanto en el exterior como en el interior del edificio.
ACCIDENTAL: la falta de mantenimiento de las instalaciones del edificio, el mal uso
de las mismas o algún fallo puntual también pueden provocar humedades.
CAUSAS MECANICAS:
Los materiales constructivos también pueden sufrir patologías de origen químico, que,
en general, suelen consistir en reacciones químicas de sales, ácidos o álcalis que
acaban produciendo algún tipo de descomposición del material afectado. A la larga,
éste irá perdiendo su integridad, ya que las patologías de carácter químico afectan
notablemente a la durabilidad de los materiales. En conjunto, las lesiones de origen
químico se desarrollan a través de procesos claramente distintos a los de las
patologías de carácter físico y mecánico, pero sin embargo, en ocasiones su
sintomatología puede llegar a confundirse.
Se suelen distinguir cuatro grupos de lesiones químicas. Son: las
EFLORESCENCIAS, es decir, los depósitos de sales minerales solubles que se
forman sobre la superficie de un material; las OXIDACIONES Y CORROSIONES,
entendidas como una transformación química que se produce en la superficie de los
metales, especialmente el hierro y el acero, que provoca la destrucción de la misma;
la EROSIÓN, o sea la pérdida de material en las superficies de los materiales como
resultado de ciertas reacciones químicas de sus componentes con otras sustancias
atacantes; y por último, los PROCESOS BIOQUÍMICOS, es decir, el conjunto de
lesiones químicas que se deriva de la presencia de un organismo vivo, ya sea animal
o vegetal, y que afecta a la superficie del material constructivo.
Eflorescencias:
En general, se suele definir a las eflorescencias como la cristalización en la superficie
de un material de sales solubles contenidos en el mismo. El fenómeno se produce
cuando el agua que se halla en el interior de un material, y que contiene una solución
de esas sales, se evapora de manera relativamente rápida.
En efecto, durante la evaporación, el agua, que va de dentro hacia fuera, arrastra a
esa solución salina hasta la superficie del material y, una vez allí, mientras se
completa la evaporación, la mencionada solución inicia un proceso de concentración –
es decir que la concentración de las sales en la solución va aumentando- que puede
llevar a su saturación y posterior cristalización. Ésta se suele manifestar en forma de
manchas blancuzcas que afean el aspecto exterior de los cerramientos y deterioran el
material (las eflorescencias pueden ocasionar, por ejemplo, los desprendimientos de
azulejos).
Normalmente, estas manchas tienen formas geométricas que varían según el cristal y
que en cierto modo se parecen a flores, de ahí el nombre de la lesión. Esta lesión
afecta con más frecuencia a los materiales más porosos o con texturas más abiertas y
con cierta capacidad de absorción de agua, como el ladrillo, la piedra, el hormigón, los
morteros o el yeso.
Oxidación y Corrosión:
Globalmente, por oxidación y corrosión se entiende la transformación molecular y la
pérdida de material en las superficies de los metales, sobre todo del hierro y el acero.
Dicho de una manera más sencilla, estas dos lesiones se pueden definir como la
destrucción química de la superficie de un metal por la interacción con agentes con
los que está en contacto.
OXIDACION:
Es un proceso químico por el cual la superficie de un metal reacciona con el oxígeno
del aire que tiene a su alrededor y se transforma en óxido. Esto se debe a que los
metales, normalmente, son inestables químicamente y tienden a convertirse en óxido,
que es más estable. En el fondo, el proceso que sufre el metal no es más que una
recuperación de su estado natural. En efecto, los metales no se hallan en la
naturaleza en estado puro (excepto los denominados ‘metales puros’, como el oro o el
platino), sino que se encuentran en los minerales combinados en distintas formas
químicas, entre ellas los óxidos.
En definitiva, hay que concluir que la oxidación es una lesión elemental, de fácil
prevención o reparación, y que su parte negativa se halla en el aspecto desagradable
que pueden adoptar los elementos constructivos metálicos afectados.
CORROSIÓN
Es un ataque que implica una reacción química acompañada del paso de corriente
eléctrica. Por esta razón, la corrosión suele denominarse también oxidación
electrolítica. A diferencia de la oxidación propiamente dicha, la corrosión no afecta
sólo a la capa superficial del metal, sino que el ataque continúa hasta la destrucción
total del mismo. Este fenómeno se desarrolla entre dos zonas determinadas de la
superficie del metal, zonas que reciben el nombre de ánodo y cátodo, y por medio de
un fluido conductor (electrolito) capaz de conducir una corriente eléctrica.
Tanto en los ánodos como en los cátodos se producen una serie de reacciones, pero
la corrosión se produce como resultado de la interacción de los procesos que tienen
lugar en ambos, en ánodos y cátodos.
Erosión Química:
La erosión química se puede definir como la destrucción o alteración de la superficie
de un material como consecuencia de ciertos procesos o reacciones químicas de sus
componentes con otros agentes exteriores atacantes, como los contaminantes
atmosféricos, sales o álcalis disueltos en las aguas de capilaridad o filtración,
productos aplicados por el hombre, etc. Su resultado final no consiste sólo en la
transformación molecular del material –que implica una modificación de su estructura
y una variación de su aspecto–, sino también la progresiva pérdida del material –en
ocasiones se puede llegar a su total destrucción– como consecuencia de la mayor
fragilidad o solubilidad de las nuevas estructuras moleculares.
En realidad, los materiales siempre se han erosionado de manera natural, pero el
proceso, debido a la acción de los agentes atmosféricos, se ha desarrollado muy
lentamente y, en lo que se refiere a la construcción, no solía representar un motivo de
preocupación.
La erosión química afecta especialmente a los materiales pétreos, en los que se
forman unas costras o capas superficiales que son las que degradan la piedra.
ELEMENTOS Y COMPUESTOS QUE ORIGINAN LA EROSIÓN
DIÓXIDO DE CARBONO
Procede de dos fuentes, ya que es un componente natural de la biosfera y, además,
es emitido a la atmósfera como resultado de las actividades industriales. El dióxido de
carbono acidifica las aguas de lluvia (lluvia ácida) y actúa principalmente sobre
materiales calizos (piedras, mármoles, hormigones) incrementando en gran medida la
velocidad de disolución o disgregación de este tipo de piedras o de aquellas que
contengan elementos calcáreos.
DIÓXIDO DE AZUFRE
Es tal vez el agente contaminante más peligroso y procede de la combustión de
hidrocarburos (vehículos y calefacciones) y carbón mineral. Cuando se acumula en la
atmósfera, tiende a asociarse con las partículas sólidas y líquidas suspendidas en el
aire. El dióxido de azufre sufre un proceso de oxidación debido a la presencia en la
atmósfera de ciertos catalizadores (luz solar, vanadio, manganeso, etc.) que le lleva a
transformarse en trióxido de azufre (2 SO2 + O2 = 2 SO3). Éste, que es higroscópico,
al combinarse con el agua de lluvia produce ácido sulfúrico (2 SO3 + 2 H2O = 2
H2OSO4).
CLORUROS
Son contaminantes fuertes y agresivos porque al combinarse con el agua de lluvia
provocan la formación de ácido clorhídrico o ácido hipocloroso. En concreto, el
primero se puede llegar a combinar con la cal de hidrólisis de los cementos,
produciendo cloruro cálcico y rebajando el pH del material. Entonces, el material sufre
una fuerte presión de cristalización que disgregará su superficie.
FLUORUROS
Aparecen en la atmósfera como resultado de la contaminación industrial,
principalmente la de las industrias siderometalúrgicas. Si actúan en medios ácidos y
húmedos (lluvia ácida con presencia de dióxido de azufre), los aerosoles de fluoruros
reaccionan con la sílice de los materiales de fachada produciendo tetra fluoruro de
silicio, compuesto muy volátil que puede causar importantes alteraciones en los
componentes silíceos de los materiales y provocar erosión superficial. Por lo común,
ataca a hormigones y morteros con áridos silíceos –especialmente a los morteros de
revocos– y a algunos granitos.
AGUA PURA
Aunque en los materiales constructivos aparece con muy poca frecuencia, su ataque
puede resultar altamente dañina para los hormigones –material sobre el que suele
actuar–, ya que disuelve la cal y arrastra parte de la alúmina provocando
disgregaciones. En caso de que su acción sea bastante prolongada, aparecerá un
residuo superficial en forma de costra compuesto de sílice hidratada, alúmina de
aspecto gelatinoso y óxido de hierro. Este residuo tiene escasísima cohesión y, en
consecuencia, puede escamarse y desprenderse erosionando la superficie.
ÁLCALIS DEL CEMENTO
No todos los agentes químicos que atacan a los materiales provienen del exterior.
Algunos proceden del interior de los mismos, como es el caso de los álcalis (K2O,
Na2O). Básicamente, su acción está asociada a materiales y productos obtenidos con
cementos, especialmente con cemento Portland, ya que generalmente contienen
álcalis de sodio y de potasio. De hecho, cuando su porcentaje en los cementos supera
el 6 % pueden atacar a algunos tipos de áridos, como las sílices, opalinas, calcedonia,
riolita, etc.
El ataque de los álcalis se suele manifestar en forma de expansiones volumétricas,
disgregaciones y rupturas del material afectado debidas a reacciones entre los álcalis
y ciertos silicatos contenidos en los granos.
ORGANISMOS
La presencia o acción continuada de un organismo sobre los cerramientos puede
llegar a provocar erosiones químicas, que aunque constituyen una patología
secundaria, pues no aparecen con mucha frecuencia, deben tenerse en cuenta.
Procesos bioquímicos:
El deterioro causado en los materiales por agentes biológicos no es un fenómeno
aislado, sino que es consecuencia de la interacción de numerosos factores, por lo que
conviene analizarlo con detalle.
En este apartado se estudia el conjunto de lesiones provocado por el asentamiento
incontrolado de organismos vivos, ya sean animales o vegetales, en las fachadas de
los edificios y que afecta a la superficie de los materiales de las mismas. Estas
lesiones suelen incluirse entre las patologías químicas debido a que su proceso es
fundamentalmente químico, a pesar de que algunas de las actuaciones de los
organismos vivos sean puramente mecánicas o físicas. Las lesiones provocadas por
los organismos suelen distinguirse por la ‘actitud’ del mismo, que puede ser pasiva, o
sea de simple asentamiento, o agresiva, es decir, de destrucción del material. Aun así,
para mayor comodidad, aquí hemos optado por clasificar estas patologías en función
del agente que las provoca: animales o plantas.
ANIMALES
Se suelen subdivir en función de su tamaño: pequeños y grandes. Aunque en los
edificios modernos suele detectarse la presencia de algunas arañas –que hacen sus
nidos en los pequeños orificios de las paredes exteriores de la fábrica, pero cuya
acción no es destructora–, los insectos, es decir los animales pequeños, que causan
mayores daños son los xilófagos. Éstos atacan a la madera, bien creando una red de
cavernas en el interior del material, bien por medio de sus larvas, que se alimentan de
la madera y, por ello, atacan a sus fibras más resistentes.
VEGETALES
El aerosol atmosférico contiene partículas vivas o microorganismos vegetales como
bacterias, algas u hongos, que pueden hallarse aisladas o adheridas a otros
elementos, como a granos de polvo, de polen o semillas. A continuación analizaremos
los principales microorganismos vegetales implicados en los procesos de
degradación.
HONGOS: son organismos heterótrofos que no se desarrollan a partir de substratos
inorgánicos, sino que aprovechan el material orgánico para crecer. Poseen tamaños
que oscilan entre las 3 y 100 micras y pueden producir daños mecánicos y
alteraciones químicas debido a la presencia de ácidos orgánicos (cítrico, oxálico,
fumárico), inorgánicos (carbónico, nítrico) y de sustancias quelantes. En general, su
acción requiere oxígeno gaseoso y gran cantidad de agua, superior al 20 % de
humedad en el elemento constructivo, además de una temperatura suave (entre 20 y
25 °C) y deterioran notablemente los silicatos de aluminio, las calizas y los morteros.
73) Como se determina en humedad la SSS , del AG, y la SSS del AF.
W s∗δ agua
b) Peso específico aparente = = 2710 Kg/cm2
W s −W ∑ ¿ ¿
W h−W s
c) Contenido de humedad del árido del montón = * 100 = 1,36 %
Ws
W sss −W s
d) Absorción = * 100 = 0,21 %
Ws
75) Detalle cómo se realiza la curva granulométrica, para que sirve, como
se dibuja la curva con la escala elevado a la 0.45, y que es el módulo de
fineza.
CURVA GRANULOMETRICA
La curva granulométrica de un suelo es una representación gráfica de los resultados
obtenidos en laboratorio cuando se analiza la estructura del suelo desde el punto de
vista del tamaño de las partículas que lo forman.
El propósito del análisis granulométrico, es determinar el tamaño de las partículas o
granos que constituyen un suelo y fijar en porcentaje de su peso total, la cantidad de
granos de distintos tamaños que el suelo contiene.
El método más directo para separar un suelo en fracciones de distinto tamaño
consiste en el uso de tamices con aberturas de malla estandarizadas y obtener el
peso de las cantidades que han sido retenidas en cada tamiz. Pero como la abertura
de las malla más fina que se fabrica corrientemente es de 0.07 mm., el uso de tamices
está restringido al análisis de arenas limpias, de modo que, si un suelo contiene
partículas menores de dicho tamaño se deben separar por el método hidrométrico.
Para graficar la curva granulométrica, debemos tomar en cuenta que:
los porcentajes de muestra que pasa cada uno de los tamices, se encuentran
en el eje de las ordenadas y a una escala aritmética.
la ordenación de la abertura del tamiz en mm. se encuentra en el eje de las
abscisas y con una escala logarítmica; esto para facilitar la construcción de la
curva granulométrica.
Σ %retenido acum(3 '+1 ,5 '+ 3/4 ' +3/8 '+ N ° 4+ N ° 8+ N ° 16 + N ° 30+ N ° 50+ N ° 100)
Mf AG =
100
Σ %retenido acum( N ° 4+ N ° 8+ N ° 16+ N ° 30+ N ° 50+ N ° 100)
Mf AF =
100
Fuentes:
0,0047
N°4 0 0 0 100 0,00
5
0,0024 73,5
N°8 200,2 200,2 20,02 79,98
0 5
0,0012 53,8
N°16 299,8 500 50,0 50,0
0 4
0,0006 39,4
N°30 288,2 788,2 78,82 21,18
0 1
0,0003 28,8
N°50 164,8 953 95,3 4,7
0 5
0,0001 21,1
N°100 44,4 997,4 99,74 0,26
5 2
FOND
2,6 1000 100 0
O
MF =
∑ Ret acum% =¿ 4,4388
100
% Pasante
120
100
80
% Pasante
60
40
20
0
0 0 0.01
Resolución:
Peso que pasa por cada tamiz del árido A: (porcentaje que pasa de A)*0.4=X
Peso que pasa por cada tamiz del árido B: (porcentaje que pasa de B)*0.6=Y
Porcentaje total que pasa por cada tamiz: TOTAL=X+Y
Curva Granulométrica
120
100
% Pasa Acumulado
80
60
40
20
0
1 1.5 2 2.5 3 3.5 4 4.5
Tamiz
m
[m' s∗( )]
d 2= ms
[ ( V f −V i )∗d a ]
[m' s ]
d 3=
[ ( V f −V i )∗d a ]
Donde:
La norma IRAM 1520 contempla otro método para la determinación de las densidades
relativas de las arenas, el método gravimétrico. En la siguiente tabla se indican rangos
de densidades de agregados usados habitualmente en nuestro país, en estado
saturado y superficie seca.
Fuentes:
Ese Material llamado Hormigón-AATH
Tamaño máximo del árido: el tamaño de cedazo más pequeño a través del cual puede
pasar el 100% del material.
Tamaño nominal máximo del árido: es el cedazo de mayor tamaño que retiene parte
del material, pero generalmente no más del 10%.
Ø
% que pasa en tamiz “i” = a + (100 – a) √ ( )
T max
Curvas de Fuller y Bolomey
Figura A
Figura B
Mezcla de agregados
Importancia de una granulometría continúa
Muchos investigadores llegaron a la conclusión que lograda la máxima compacidad se
podían obtener hormigones de buena calidad, así surgen las curvas granulométricas
ideales de Fuller, Bolomey y otros que tratan de acercarse a tal condición.
Asociando la compacidad con el mayor tamaño máximo compatible con la estructura y
lo
Obtenible en yacimientos (condición que nos daría la menor superficie específica) y
con una excelente granulometría, podemos decir que solucionamos uno de los
factores de mayor importancia que conducen al logro de un hormigón de calidad.
La granulometría de los agregados influye sobre:
a) trabajabilidad de la mezcla fresca
b) resistencia mecánica
c) resistencia a los agentes climáticos
d) resistencia química
e) economía
De allí la importancia de lograr granulometrías compactas. En general podemos decir
que para cada tipo de obra, existe una granulometría característica u óptima.
La necesidad de lograr una granulometría deseada, o que se encuentre dentro de
entornos granulométricos establecidos, induce a las mezclas de dos o más
agregados, de tal forma que el aporte de éstos en el total conforme una granulometría
próxima a la buscada.
Bibliografía:
-Apunte de la UNIVERSIDAD TECNOLOGICA NACIONAL
Facultad Regional Santa Fe: ROCAS Y AGREGADOS PARA HORMIGONES
-Hormigón de Alberto Giovambattista
84) RESOLVER: ÁRIDOS GRUESOS DE DOS MONTONES QUE TIENEN UNA
ANGULARIDAD DE ÁRIDO GRUESO (CARAS TRITURADAS) DEL 40% Y EL 90%,
RESPECTIVAMENTE, SE MEZCLAN CON UNA RELACIÓN DE 30:70 SEGÚN
PESO ¿CUÁL ES EL PORCENTAJE DE CARAS TRITURADAS EN LA MEZCLA DE
ÁRIDOS?
Los agregados no deben contener sustancias que provoquen alguno de los siguientes
efectos:
Cambio significativo del volumen de la pasta, agregados o ambos.
Interferencia en la hidratación normal del cemento.
Corrosión de las armaduras de acero y otros efectos secundarios que puedan
ser perjudiciales para el hormigón.
Por lo tanto se puede decir que los agregados deben cumplir con las siguientes
condiciones:
a) Tiene que ser un material limpio, libre de impurezas, no tenga ninguna capa
externa que dificulte la adherencia del agregado con la pasta cementicia.
b) Suficientemente resistente para el hormigón a diseñar.
c) Estable, en cuanto a su durabilidad que no se degrade con el transcurso del
tiempo.
d) Resistente al fuego.
e) No ser permeables, tienen cierta impermeabilidad (limite 4,5%).
f) Carecer de grietas.
g) No poseer material orgánico.
Que inconveniente puede tener el material que pasa por el tamiz N°200.
Los más finos que 75micrometros, especialmente limo y arcilla pueden estar presente
como polvo suelto y/o adheridos a las partículas de los agregados.
Estas partículas tienen una elevada superficie específica, especialmente si se trata de
arcillas. Cuando los agregados las incorporan al hormigón en cantidad excesiva,
producen un aumento del agua de mezclado necesaria para lograr la misma
trabajabilidad. Esto a su vez, aumenta la contracción por secado y la fisuración del
hormigón endurecido, por otra parte el material fino adherido a las partículas de
agregado grueso disminuye su adherencia con la pasta de cemento y por
consiguiente la resistencia del hormigón.
Los terrones de arcilla y las partículas blandas pueden provenir del propio yacimiento
o haberse incorporado durante su explotación. Poseen resistencia menor que la
mayoría de las partículas que constituyen el agregado y eso puede afectar la
resistencia estructural, el desgaste superficial y la durabilidad del hormigón que los
contiene.
Sulfatos: su presencia puede modificar el equilibrio entre los aluminatos y el yeso del
cemento, y afectar el fraguado del hormigón. También puede incidir en la durabilidad
del hormigón.
Materia orgánica: provienen de la descomposición de vegetales, según su naturaleza
pueden retrasar el fraguado y el desarrollo de la resistencia del hormigón. Y en caso
particular de los azucares llegan a impedir el fraguado.
Fuentes:
https://www.construmatica.com/construpedia/Cemento_Aluminoso
https://www.patologiasconstruccion.net/2012/11/la-aluminosis-al-descubierto-i-
cementos-aluminosos/
88) DESARROLLE INVESTIGANDO ACERCA DE LOS CEMENTOS DE TIPO
EXPANSIVOS, SUS USOS , DE DETALLE DE SU QUIMICA, Y SUS
PROPIEDADES.
-Temperatura de curado
Si la temperatura del agua de curado aumenta la pasta de cemento alcanza su
expansión en un menor tiempo y en menor magnitud.
-Los cementos moderadamente expansivos se prepararon por mezcla de un 00 a
un 84 % de cemento portland, un 6 % de yeso y un 4 a un 10 % de cemento
aluminoso. Los componentes que provocan la expansión en el cemento cuando están
presentes en gran cantidad son la cal calcinada a muerte, la magnesia calcinada a
muerte y el sulfato cálcico.
Usos
-Compuesto demoledor no explosivo
Debido a la expansión de este tipo de cemento se generan grandes fuerzas de
tensión sobre la superficie del elemento que lo contenga, usándose como un agente
demoledor no explosivo (idea tomada de procesos naturales de meteorización en los
que interviene el agua y sales minerales).
-Concreto de retracción compensada
Al pasar del estado plástico al estado endurecido la pasta de cemento presenta
contracciones causadas por la rápida evaporación del agua en la pasta o una mala
proporción agregado-cemento. Esta contracción aumenta en relación a la superficie
expuesta al aire, como es el caso de pisos y muros.
-Se lo encuentra en represas con fisuras, en sistemas industrializados con
construcción de panelería.
La Cal: La cal aérea se compone de óxido de calcio (Se denomina así porque no
endurece dentro del agua) Su origen proviene de rocas calcáreas que se encuentran
en la naturaleza. Es la cal que, con el agregado de agua, produce una pasta
constituida en su mayor parte por hidróxido de calcio e hidróxido de magnesio, que
endurece en contacto con el aire.
Apagado de la cal: Para poder emplear la cal viva hay necesidad de ponerla en
contacto con el agua, para que se hidrate, y esta operación recibe el nombre
de “apagado de la cal”. Existen distintos procedimientos para apagar la cal
aérea y con la que reacciona de la siguiente manera:
silicato dicálcico
Silicato tricalcico
aluminato de calcio
ferroaluminato de calcio
También existe cantidades menores de cal libre, oxido de magnesio, oxido de sodio
y oxido de potasio.
Compuestos mínimos:
I. Cal libre o viva, que no logro unirse. Cuando es menor al 4% no es peligroso.
Cuando es mayor al 4% es muy peligroso por el aumento de expansión.
III. Álcalis: sustancia que puede exponerse de manera peligro dentro del
hormigón.
El cemento es un adhesivo tan efectivo que una vez que fragua, es casi
imposible romper su enlace con los materiales tales como el ladrillo, el acero,
la grava y la roca.
Las materias primas esenciales, calizas, margas y arcilla que son extraídas de
cantera, en genera próximas a la planta, deben proporcionar elementos esenciales
en el proceso de fabricación de cemento: calcio, silicio. Aluminio y hierro.
Muy habitualmente debe apelarse a otras materias primas secundarias, bien
naturales (bauxita, mineral de hierro) o subproductos y residuos de otros procesos
(cenizas de central térmica, escorias de siderurgia, arenas de fundición …) como
aportadoras de dichos elementos. Las calizas pueden ser de dureza elevada, de
tal modo que exijan el uso de explosivos y luego trituración, o suficiente mente
blandas como para poderse explotar sin el uso de explosivos.
El material de trituracion de la voladura es transortado en camiones para su
trituracion, los mismos que son cargados mediante palas o cargadores frontales de
gran capacidad.
Las materias primas naturales son sometidas a una primera trituracion, bien en
cantera o a su llegada a la fabrica de cemento donde se descargan para su
almacenamiento.
La trituracion de la roca, se realiza en dos etapas, de tipo cono que puede
reducirla de un tamaño maximo de 1.5 m hasta los 25 cm. El material se deposita
en un parque de almacenamiento. Seguidamente, luego de verificar su
composicion quimica, pasa a la trituracion secundaria, reduciendose su tamaño
hasta 2 mm aproximadamente.
El material triturado se lleva a la planta propiamente dicha por cintas
transportadoras, depositandose en un parque de materias primas. En algunos
casos se efectua un proceso de pre-homogeneizacion.
Vía seca
Vía semi seca
Vía semi húmeda
Vía húmeda
La tecnología que se aplica depende fundamentalmente del origen de las materias
primas. El tipo de caliza y de arcilla y el contenido de agua (desde el 3% para calizas
duras hasta el 20% para algunas margas), son los factores decisivos.
En la actualidad, en torno al 78% de la producción de cemento de Europa se realizara en
horno de vía semi seca o semi húmeda y un 6% de la producción Europea se realiza por
vía húmeda
Proceso por vía seca
El proceso de vía seca es el más económico, en termino de consumo energético, y es el
más común.
La materia prima es introducida en el horno en forma seca y pulverizada.
El sistema del horno comprende una torre de ciclones para intercambio de calor en la que
se precalienta el material en contacto con los gases provenientes del horno.
El proceso de des carbonatación de la caliza (calcinación) puede estar casi completado
antes de la entrada del material en el horno si se instala una cámara de combustión a la
que se añade parte del combustible (precocinado).
Por lo tanto, con 0,55 cm 3 que parto de material genero 0,68 cm 3 de material (se
incrementa un 23,6%).
Relación entre el volumen de material hidratado y el volumen del cemento
0,68 cm 3
= 2,125 2,2 veces
0,32 cm3
Condiciones físicas, obtengo espacio suficiente para que las sustancias hidratadas se
desarrollen.
Si no tengo espacio para que se hidrate el cemento, lo tengo que generar con agua:
De esas 2,2 veces; 1 vez es el volumen del grano de cemento y 1,2 veces es el
volumen del agua.
A/C = 0,38 valor teórico; mínima relación para que se hidrate el cemento (en H°
normales)
Si un H° tengo una relación menor no podré hidratar todo el cemento, se sacrifica
cemente a costa de ganar en la calidad de vinculaciones entre cristales (para H°
especiales).
El agregar agua de forma indiscriminada, por notar al hormigón “duro”, provoca que
nuestra relación agua-cemento se vea modificada, elevando nuestra razón, y esto,
afecta directamente a la resistencia del hormigón, que ha pasado de tener 30N/mm2 a
tener 24,8 N/mm2, una pérdida del 17% de la resistencia a compresión a 28 días, por
ejemplo. Al igual que la resistencia, la durabilidad también se ve afectada cuando se
altera la relación agua-cemento. Por ejemplo, cuando esta última es alta, las
partículas de cemento están muy espaciadas entre sí.
Esto provoca que cuando se produce el fraguado, los productos de la hidratación del
cemento no cubran todo este espacio y queden pequeños poros. Por lo que a mayor
relación agua-cemento, mayor es la porosidad del hormigón y, por lo tanto, menor es
su durabilidad.
Contrariamente, con una relación agua-cemento no elevada, menor es la porosidad y
mayor la durabilidad.
Fuentes:
http://bestsupportunderground.com/relacion-agua-cemento/
100) Detalle las características de cada uno de los componentes minerales del
CP.
Belit o velita (SC2): El silicato tricálcico (C3Si) tiene diez veces más velocidad
de hidratación que el silicato bicálcico. El SC2 reacciona con el agua,
produciendo en la reacción de hidratación los productos portlandita (CH) y un
gel de silicato cálcico hidratado (C-Si-H).
C2S + 2 H -> C-S-H + CH
Como la velocidad de hidratación es lenta, es adecuada la inclusión del
silicato bicálcico en los cementos de hormigones en los que se requiere que las
prestaciones mecánicas del hormigón no sean a corto plazo. Su
temperatura de hidratación es de 60 cal/gr.
Componentes mínimos:
Cal viva (o libre): CaO, No debe sobrepasar el 4%, ya que en cantidades
excesivas puede dar por resultado una calcinación insuficiente del clinker
en el horno, esto puede provocar expansión y desintegración del
hormigón. Inversamente, cantidades muy bajas de cal libre reducen la
eficiencia en el consumo de combustible y producen un clinker duro para moler
que reacciona con mayor lentitud.
de álcalis totales en el hormigón, ya que el álcali puede entrar a la mezcla de
ese hormigón proveniente de ingredientes que no son el cemento, como el agua, los
agregados y los aditivos.
Yeso: se agrega generalmente al clínker para regular el fraguado. Su
presencia hace que el fraguado se concluya aproximadamente en 45 minutos.
El yeso reacciona con el aluminato tricálcico para formar una sal expansiva
llamada etringita.
3 CaOAl2O3 + 3 CaSO4·2H2O + 26 H2O → 3CaOAl2O3 . 3CaSO4 . 32H2O
El enfoque de englobar los distintos tipos de cemento en una única norma, sigue los
lineamientos de la Norma Europea de cementos, CEN 197:2000. Como se indica en la
Tabla I, el único cambio en las especificaciones es el del nombre del Cemento de
Escoria de Alto Horno, que creaba confusión con el Cemento Portland con Escoria de
Alto Horno, por lo que se convino en designarlo Cemento de Alto Horno, para una
mejor diferenciación. Los requisitos de composición, químicos y físico-mecánicos no
han sido alterados.
Elevada durabilidad.
Es relativamente económico.
Bajo mantenimiento.
Fortalezas
Debilidades
Por otro lado los elementos arquitectónicos que no tiene estructura ya sean
tabiques o muebles pueden ser cargar gravitatorias ya que aumentarían la
fuerza sísmica por su gran masa.
Bibliografía: https://es.scribd.com/doc/53683750/Ventajas-y-Desventajas-Del-
Concreto
105) Cuales son las tres zonas que se debe analizar el Hormigón, con
respecto a la durabilidad y la resistencia.
Las 3 zonas en las que se debe analizar el hormigón con respecto a la durabilidad y la
resistencia son:
Fuentes:
Apuntes de Clase Teorica
106) Cuales son las 3 funciones que cumple el agua en el Hormigón, por
favor detalle sobre estas funciones.
Ley de Abrams:
= a/c
R=M/N
2. Agente de curado
Calidad.
El agua para amasar y curar el hormigón será satisfactoria si es potable (adecuada
para el consumo humano). Esta debe estar razonablemente limpia y sin cantidades
dañinas de materia orgánica, fango y sales. El límite máximo de tubidez debe ser de
2000 ppm*. Cuando las impurezas en el agua de mezclado son excesivas pueden
afectar no solo el tiempo de fraguado, la resistencia y estabilidad del volumen sino
también provocar eflorescencia o corrosión en el refuerzo.
En general se puede usar para mezclado y curado del hormigón, sin necesidad de
realizar análisis, agua clara que no tenga sabor ni olor notorios, con excepción, casi
exclusivamente, a las aguas de alta montaña ya que su gran pureza les confiere
carácter agresivo para el hormigón.
El agua de ciénagas o de lagos estancados puede contener ácido tánico, el cual
puede causar retardo en el fraguado y desarrollo de la resistencia. No obstante,
algunas aguas visiblemente insalubres pueden también ser utilizadas, previo análisis
de estas: aguas bombeadas de minas (que no sean de carbón ya que el agua mineral
intensamente carbonatada puede producir reducciones apreciables en la resistencia),
algunas de residuos industriales, aguas pantanosas, etc.
Podrán, emplearse aguas de mar o aguas salinas análogas para el amasado o curado
de hormigones que no tengan armadura alguna. Salvo estudios especiales, se
prohíbe expresamente el empleo de estas aguas para el amasado o curado de
hormigón armado o pretensado.
107) Explique porque SI utilizaría Asfalto en una ruta…y porque NO…
INVESTIGUE
El hormigón asfáltico tiene diferentes prestaciones en términos de durabilidad de
superficie, soporte de neumático, eficiencia de frenado y disminución de ruido. Las
características necesarias del asfalto se obtienen en función de la categoría de tráfico
y el coeficiente de fricción deseado. En términos generales el hormigón asfáltico
genera es menos ruidoso que el proveniente del cemento portland. Los estudios de
cinética y ruidos en firmes se remontan a los años 1970s
108) Explique porque utilizaría Hormigón en una ruta…y porque NO…
INVESTIGUE
Bibliografía:
http://www.abc.com.py/edicion-impresa/economia/pavimento-de-hormigon-de-
cemento-tiene-ventajas-frente-al-de-asfalto-745290.html
http://cybertesis.uach.cl/tesis/uach/2014/bmfcib957a/doc/bmfcib957a.pdf
109) Explique porqué utilizaría hormigón armado en una ruta, y porqué
no. Investigue.
Pavimentos de hormigón con refuerzos de acero
Existen dos tipos básicos de refuerzo para estos pavimentos:
Refuerzo no estructural: la finalidad principal del refuerzo es resistir las
tensiones de contracción del concreto en edades tempranas y controlar los
agrietamientos. La cuantía del refuerzo necesaria oscila entre 0,1% y el 0,3%
del área de la sección transversal de la losa.
Refuerzo estructural: en este caso, el acero no solo cumple la función de
resistir las tensiones derivadas del comportamiento plástico del hormigón, sino
que también asume tensiones de tracción y compresión derivadas del tráfico,
por lo cual el espesor de las losas suele ser hasta 10 cm menor al de las que
tienen refuerzos que no cumplen esta función. Su estructura típica está
integrada por dos secciones de acero: una en el tercio superior y otra en el
tercio inferior de la losa.
Fuentes:
m.paraguay.com/nacionales/analizaran-la-utilizacion-de-hormigon-armado-
para-pavimentar-rutas-150115
Revista “Hormigonar”-abril 2015