La evolución de la tabla periódica, desde la primera ordenación de los elementos, ha tenido lugar a lo largo de más de un siglo de historia y ha ido pareja al desarrollo de la ciencia. Aunque los primeros elementos conocidos, como el oro, el hierro se conocían desde antes de Cristo (recuérdese que el hierro, por su importancia en la evolución de la humanidad ha dado nombre a una época), todavía hoy se investiga la posible existencia de elementos nuevos para añadir a la tabla periódica.
Como en la naturaleza la mayoría de los elementos se encuentran combinados formando compuestos, hasta que no fue posible romper estos compuestos y aislar sus elementos constituyentes, su conocimiento estuvo muy restringido. Fue en el año 1800 cuando se descubrió el fenómeno de la electrólisis (ruptura de un compuesto mediante el uso de energía eléctrica ). Este descubrimiento impulsó un salto hacia delante en el descubrimiento de nuevos elementos. Así, de poco más de diez que se conocían hasta el Siglo XVIII, en el que se habían descubierto los elementos gaseosos (hidrógeno, oxígeno, nitrógeno y cloro) y algunos metales (platino, níquel, manganeso, wolframio, titanio vanadio y plomo), en las primeras décadas del siglo XIX se descubrieron más de 14 elementos, y posteriormente, a ritmo algo más lento se siguieron descubriendo otros nuevos.
Así, en 1830 se conocían ya 55 elementos diferentes, cuyas propiedades físicas y químicas variaban extensamente. Fue entonces cuando los químicos empezaron a interesarse realmente por el número de elementos existentes. Preocupaba saber cuántos elementos diferentes existían y a qué se debía la variación en sus propiedades. Sería Berzelius quien llevase a cabo la primera agrupación de los elementos, ordenándolos alfabéticamente e incluyendo el dato de su peso atómico. Sin embargo, esta agrupación no atrajo el interés de los científicos de la época.
Hasta ese momento, nadie parecía haber advertido la posible periodicidad en las propiedades de los elementos químicos, entre otras razones, porque el número de elementos que quedaban por descubrir dejaba demasiados huecos como para poder atisbar orden alguno en las propiedades de los mismos. Además, todavía no existía un criterio claro para poder ordenar sus propiedades, ya que el peso atómico de un elemento, que fue el primer criterio de ordenación de los elementos, no se distinguía con claridad del peso molecular o del peso equivalente.
Fue en 1929 cuando el químico alemán Döbereiner realizo el primer intento de establecer una ordenación en los elementos químicos, haciendo notar en sus trabajos las similitudes entre los elementos cloro, bromo y iodo por un lado y la variación regular de sus propiedades por otro. Una de las propiedades que parecía variar regularmente entre estos era el peso atómico. Pronto estas similitudes fueron también observadas en otros casos, como entre el calcio, estroncio y bario. Una de las propiedades que variaba con regularidad era de nuevo el peso atómico. Ahora bien, como el concepto de peso atómico aún no tenía un significado preciso y Döbereiner no había conseguido tampoco aclararlo y como la había un gran número de elementos por descubrir, que impedían establecer nuevas conexiones, sus trabajos fueron desestimados.
Ante la dificultad que la falta de definición del concepto de los pesos de las especies suponía, y el creciente interés que el descubrimiento de los elementos y de otros avances científicos suscitaba, otro ilustre químico, Kekulé, tomo una histórica iniciativa, que consistió en convocar a los químicos más importantes de toda Europa para llegar a un acuerdo acerca de los criterios a establecer para diferenciar entre los pesos atómico, molecular y equivalente. Esta convocatoria dio lugar a la primera reunión internacional de científicos de la
historia y tuvo consecuencias muy importantes, sobre todo gracias a los trabajos del italiano Avogadro, que brillantemente expuestos en la reunión por su compatriota Cannizzaro, llevaron a la consecución del esperado acuerdo que permitiría distinguir al fin los pesos atómico, molecular y equivalente. Así, algunos químicos empezaron a realizar intentos de ordenar los elementos de la tabla por su peso atómico.
Fue en 1864 cuando estos intentos dieron su primer fruto importante, cuando Newlands estableció la ley de las octavas. Habiendo ordenado los elementos conocidos por su peso atómico y después de disponerlos en columnas verticales de siete elementos cada una, observó que en muchos casos coincidían en las filas horizontales elementos con propiedades similares y que presentaban una variación regular. Esta ordenación, en columnas de siete da su nombre a la ley de las octavas, ya que el octavo elemento da comienzo a una nueva columna. En algunas de las filas horizontales coincidían los elementos cuyas similitudes ya había señalado Döbereiner. El fallo principal que tuvo Newlands fue el considerar que sus columnas verticales (que serían equivalentes a períodos en la tabla actual) debían tener siempre la misma longitud. Esto provocaba la coincidencia en algunas filas horizontales de elementos totalmente dispares y tuvo como consecuencia el que sus trabajos fueran desestimados.
Más acertado estuvo otro químico, Meyer, cuando al estudiar los volúmenes atómicos de los elementos y representarlos frente al peso atómico observo la aparición en el gráfico de una serie de ondas. Cada bajada desde un máximo (que se correspondía con un metal alcalino) y subido hasta el siguiente, representaba para Meyer un periodo. En los primeros periodos, se cumplía la ley de las octavas, pero después se encontraban periodos mucho más largos. Aunque el trabajo de Meyer era notablemente meritorio, su publicación no llego a tener nunca el reconocimiento que se merecía, debido a la publicación un año antes de otra ordenación de los elementos que tuvo una importancia definitiva.
Utilizando como criterio la valencia de los distintos elementos, además de su peso atómico, Mendeliev presentó su trabajo en forma de tabla en la que los periodos se rellenaban de acuerdo con las valencias (que aumentaban o disminuían de forma armónica dentro de los distintos periodos) de los elementos. Esta ordenación daba de nuevo lugar a otros grupos de elementos en los que coincidían elementos de propiedades químicas similares y con una variación regular en sus propiedades físicas. La tabla explicaba las observaciones de Döbereiner, cumplía la ley de las octavas en sus primeros periodos y coincidía con lo predicho en el gráfico de Meyer. Además, observando la existencia de huecos en su tabla, Mendeliev dedujo que debían existir elementos que aun no se habían descubierto y además adelanto las propiedades que debían tener estos elementos de acuerdo con la posición que debían ocupar en la tabla. Años más tarde, con el descubrimiento del espectrógrafo, el descubrimiento de nuevos elementos se aceleró y aparecieron los los que había predicho Mendeliev. Los sucesivos elementos encajaban en esta tabla. Incluso la aparición de los gases nobles encontró un sitio en esta nueva ordenación. La tabla de Mendeliev fue aceptada universalmente y hoy, excepto por los nuevos descubrimientos relativos a las propiedades nucleares y cuánticas, se usa una tabla muy similar a la que él elaboró más de un siglo atrás.
De entre los centenares de compuestos químicos inorgánicos es, sin duda, uno de los más conocidos y de los más popularmente temidos. Aparece en más de una película policíaca como disolvente demoníaco para destruir el cuerpo del delito. Se producen muchos miles de toneladas en el mundo anualmente y, de hecho, el nivel de producción de ácido sulfúrico de un país es indicativo de su desarrollo industrial. Esta aparente contradicción está sobradamente justificada por la multitud de aplicaciones de este compuesto, cuya reactividad nos va a ayudar a acercarnos al extenso mundo de la química a lo largo de este artículo.
El Ácido Sulfúrico (H2SO4) y Sus Propiedades Ácido-Base
El concepto de un ácido o una base se ha establecido a partir de diversos puntos de vista. De la forma más sencilla, se define a un ácido como un compuesto capaz de ceder protones (H+) al agua y a una base como una sustancia que cede iones OH- al agua. El ácido sulfúrico es capaz de ceder los dos protones que tiene al agua. Sin embargo, el concepto de ácido o base es mucho más amplio. Según la definición de Lewis, que es la más general, un ácido es una sustancia que forma enlaces covalentes aportando orbitales electrónicos vacíos y la base es la sustancia que forma enlaces covalentes aportando pares electrónicos sin compartir. Esta definición es también aplicable al ácido sulfúrico, ya que los protones H+, son iones que necesariamente se enlazan sin poder aportar ningún electrón, puesto que no tienen. Para que un ácido actúe como tal, tiene que hacerlo con un compuesto que actúe como base. Éste es el caso del agua, que, teniendo doble carácter (ácido o base según con qué reaccione, por eso se dice que es anfótera), capta los protones que le cede el ácido sulfúrico, a partir de las reacciones (simplificadas):
1. H2SO4 + H2O –>> H3O+ + HSO4- Reacción irreversible
2. HSO4- + H2O <<–>> H3O+ + SO4 2- Proceso de equilibrio.
El primer proceso es irreversible, ocurre en toda su extensión, mientras que el segundo ocurre en un determinado porcentaje, por eso se dice que es un proceso de equilibrio.
Otras Propiedades
El ácido sulfúrico industrial tiene una pureza del 98% y es un líquido transparente muy denso (d=1.8g/cc, casi el doble que el agua) y viscoso, por lo que se le conoce como aceite de vitriolo. Su punto de ebullición es bastante alto (290ºC).Tiene una enorme afinidad por el agua, en la que se disuelve violentamente generando una gran cantidad de calor. Por tanto es un poderoso deshidratante, propiedad que se deja notar especialmente cuando entra en contacto con compuestos orgánicos o tejidos vivos, a los que extrae toda el agua, carbonizándolos. Una de las razones por la que el ácido sulfúrico es deshidratante es porque suele venir acompañado de una cantidad variable de su forma anhidra, SO3, que tiende a reaccionar con agua para dar la forma hidratada H2SO4.
El ácido sulfúrico actúa también como oxidante de compuestos orgánicos e inorgánicos y puede hacerlo diluido o concentrado, a partir de las reacciones siguientes:
• Diluido: nH+ + M(metal electropositivo) = n/2•H2 + Mn+
• Concentrado y caliente: nH2SO4+mM(metal)=n•H2O+n•SO2+MmOn
En la primera reacción el agente oxidante es el protón, H+, mientras que en la segunda reacción es el anión SO42- el que actúa como agente oxidante.
Aplicaciones:
El ácido sulfúrico posee un sinfín de aplicaciones entre las que se pueden destacar las siguientes:
• Reactivo y medio disolvente para los procesos de síntesis orgánica.
• Disolvente de muestras tales como metales, óxidos metálicos y compuestos orgánicos.
• Fabricación de fertilizantes, pinturas, pigmentos y explosivos.
• En la industria textil se emplea para el proceso de blanqueo y la eliminación de impurezas metálicas en telas.
• Refinamiento del crudo de petróleo.
• Desarrollo de leucotinas y neutralización de tratamientos alcalinos.
• Electrólito (sustancia que se usa como fuente de iones) en pilas y baterías, muy comúnmente usado en las baterías de los automóviles.
• Agente desecante, principalmente de sustancias gaseosas, en los laboratorios de síntesis.
• Agente desatascador de tuberías de plástico de uso doméstico e industrial, por su capacidad para disolver impurezas de todo tipo.
Pocas veces a lo largo de la historia de actual de la química una investigación ha dado lugar de forma inesperada al descubrimiento de una familia de moléculas tan excepcional como es la de los fullerenos, que constituye una nueva forma alotrópica (estructura en la que se puede encontrar una especie) del carbono, además de grafito y diamante, y posee unas propiedades excepcionales. Particularmente destaca la geometría tridimensional altamente simétrica de estas moléculas. En concreto, la más pequeña y representativa de ellas, el fullereno C60, posee una geometría idéntica a la de un balón de fútbol. Las sorprendentes propiedades de estos compuestos les han valido a sus descubridores, Harold Kroto, Richard E. Smalley y Robert F. Curl la obtención del premio Nobel de química de 1996. Las aplicaciones potenciales de estas moléculas pueden suponer una auténtica revolución en el mundo de la ciencia.
Su Descubrimiento.
Los fullerenos se obtuvieron por primera vez de forma casual al irradiar una superficie de grafito con un láser. Cuando el vapor resultante se mezcló mediante una corriente de helio se formó un residuo cristalizado cuyo estudio reveló la existencia de moléculas formadas por sesenta átomos de carbono. Como se dedujo en un principio, estas moléculas tenían una geometría semejante a la de la cúpula geodésica diseñada por el arquitecto Buckminster Fuller, con motivo de la exposición universal de 1967. Por ello, se conoce a esta familia de moléculas como fullerenos.
Síntesis.
Los fullerenos se sintetizaron por primera vez en 1990 mediante una descarga en arco, utilizando electrodos de carbono y en atmósfera de un gas noble. Generalmente, los fullerenos se preparan mediante vaporización de grafito y posterior extracción con disolventes orgánicos. Para separar en las diferentes moléculas de fullereno (C60, C70) se emplearon técnicas cromatográficas.
Propiedades Físicas y Químicas.
De todos los fullerenos, el ya mencionado C60 es el más representativo. La molécula de C60 posee la misma geometría que un balón de fútbol. En la naturaleza se presenta como un sólido negro de densidad 1,68 g/cm3. Las moléculas de fullereno permanecen unidas por débiles fuerzas intermoleculares, por lo que poseen libertad de movimiento. A consecuencia de ello, el cristal es plástico a temperatura ambiente.
La molécula de fullereno C60 posee una estructura formada por 12 pentágonos y 20 hexágonos. Su estabilidad se basa en la llamada regla del pentágono aislado, que gobierna en toda la familia de los fullerenos, y según la cual, no pueden existir pentágonos adyacentes (es decir, que compartan una o más aristas). La molécula C60 es la estructura más pequeña posible que puede satisfacer esta regla. La existencia de pentágonos en la estructura es responsable de la geometría cóncava de ésta.
Los fullerenos son solubles en ciertos disolventes orgánicos e insolubles en disolventes polares o con enlaces de hidrógeno (agua). Estas propiedades de solubilidad condicionan decisivamente la química de los fullerenos, que es muy rica y variada y se basa fundamentalmente en reacciones de adición (incorporación átomos o grupos de átomos a la estructura). Así, los fullerenos pueden adicionar hidrógeno, halógenos, oxígeno, metales, radicales. Asimismo, se pueden ciclar y polimerizar, así como formar complejos huésped-anfitrión con metales de transición. Por otra parte, pueden verificar reacciones de transferencia electrónica. Este abanico de posibilidades químicas explica las amplias expectativas forjadas en torno a las aplicaciones de los fullerenos, que pasamos a comentar.
Aplicaciones de los fullerenos.
La ciencia de los materiales ha mostrado desde su descubrimiento un gran interés por las posibilidades de los fullerenos, dadas sus múltiples propiedades y la alta procesabilidad que presentan. Siguiendo estas líneas se han obtenido polímeros electroactivos (dando reacciones de transferencia electrónica) y polímeros con propiedades de limitadores ópticos (trascendental en el campo de los láseres para evitar el deterioro de los materiales). Se espera así mismo obtener materiales muy adecuados para el recubrimiento de superficies, dispositivos fotoconductores y creación de nuevas redes moleculares.
El campo de la biomedicina también se ha visto beneficiado por la aparición de los fullerenos. Destaca sin duda el estudio de las propiedades de ciertos derivados organometálicos de los fullerenos solubles en agua, que han mostrado una actividad significativa contra los virus de inmunodeficiencia que provocan la enfermedad del SIDA, VIH-1 y VIH-2. También se baraja actualmente la posibilidad de incorporar fullereno en los procesos de fototerapia, que permitirían la destrucción de sistemas biológicos dañinos para los seres humanos.
Dada la versatilidad química de los fullerenos, se espera que una profundización en el conocimiento de sus propiedades químicas y físicas conduzca pronto a la aparición de nuevas y prometedoras aplicaciones.
Qué es la Fisión Nuclear
La fisión nuclear es un proceso en el cual un núcleo atómico pesado, y por tanto inestable, se rompe para dar lugar a dos o más núcleos más ligeros, uno o más neutrones y una astronómica cantidad de energía, que se genera al desintegrarse una pequeña cantidad de masa en la reacción y viene dada por la ecuación de Einstein e= mc2, donde m es la masa desintegrada y c la velocidad de la luz. Normalmente, la fisión de un núcleo se consigue mediante el bombardeo de éste con un neutrón.
Como ejemplo, consideremos el isótopo 235 del Uranio (combustible nuclear común):
En esta reacción se producen dos nuevos núcleos, uno de Estroncio y otro de Xenon y tres neutrones, que pueden chocar con otros núcleos de Uranio, induciendo otros procesos de fisión nuclear. Así, se puede producir una reacción en cadena. Si la cantidad de Uranio existente es mayor o igual que la llamada masa crítica se produce una reacción en cadena autosostenida, ya que los neutrones liberados en una fisión provocan sucesivamente la fisión de nuevos núcleos atómicos de Uranio. Esta reacción en cadena ocurre de manera descontrolada en las bombas atómicas, y de forma controlada en los reactores de fisión nuclear que se usan para producir energía.
Ventajas de la Fisión Nuclear
Ante la posibilidad de implantar la fisión nuclear como fuente principal de abastecimiento de energía se puede contar con importantes ventajas, a saber:
El uso de la fisión nuclear suscita sin embargo una gran controversia debido al peligro que su uso encierra, como vamos a ver a continuación
Peligros de la Fisión Nuclear
El uso de la fisión nuclear conlleva una serie de riesgos. Los efectos más devastadores son aquellos que se producirían en caso de una catástrofe en una central nuclear, como ya ocurrió en Chernobyl en 1986, y que se pueden resumir en:
En conjunto, el ambiente en las proximidades del siniestro estaría colmado de radiactividad. Para medirla se usan unidades de Curie y en términos de nocividad de Roentgen, R . Se considera desaconsejable superar dosis de 0.1R por persona y día. La dosis uniforme de 600 R sobre todo el organismo es mortal de necesidad para los humanos. Además, existen partes del organismo particularmente sensibles a la exposición, como son las células, tejidos y nodos linfáticos y la médula ósea, los leucocitos, piel y mucosas. En conjunto, las posibilidades de morir o sufrir serios daños a corto o medio plazo son muy altas en un radio de decenas de kilómetros alrededor de la zona de la catástrofe.
Otras Precauciones a Tener en Cuenta
Residuos radiactivos: En el proceso de fisión, se generan una serie de isótopos cuyos núcleos son muy inestables y se descomponen espontáneamente, emitiendo partículas a, b (éstas además suelen ir acompañadas de rayos gamma). Algunas de éstas partículas tienen tiempos de vida enormes (millones de años). Dichos residuos se envasan en bidones blindados y se emplazan en lugares geológicamente estables y alejados de los seres vivos (antiguas minas, fosas marinas, almacenes excavados en el interior de las montañas), pero ninguno de ellos parece ser totalmente seguro.
Se describe el proceso de elaboración de cerveza en la cervecería Cuauhtémoc – Moctezuma.
El corazón de toda la planta se llama fuerza motriz o sala de máquinas, porque de ahí salen todas las fuentes de energía que se necesitan para que funcione toda la planta. Trabaja los 365 días del año las 24 horas del día. Si algo falla en esta parte se detiene toda la planta. Se maneja un código de colores para distinguir las diferentes fuentes de energía. Los más importantes son: el azul, que representa el agua; el color verde representa al vapor de agua pura utilizado en los cocimientos; el color anaranjado es el gas amoniaco, que sirve para enfriar las salas frías y para procesar la fermentación de la cerveza; el azul rey es el gas carbónico que se libera en la fermentación y se utiliza en el envasado; el color gris es la electricidad; y el amarillo es aire comprimido que se utiliza para hacer funcionar algunas máquinas.
Se manejan dos tipos de agua, la que proviene del lago de Chapala y se le da tratamiento ahí en la planta que se utiliza para el mantenimiento, el otro tipo proviene de pozos Cartesianos de los que se obtiene agua muy pura y se le da otro pequeño tratamiento y se utiliza para el proceso de la cerveza.
El proceso de la cerveza empieza desde la llegada de la materia prima, la cual llega por vía terrestre o vía férrea. La materia prima utilizada es maimilo, lúpulo (flor femenina comprimida), arroz, cebada fermentada, malta y agua. Esta materia prima es almacenada silos mientras llega el momento de ser utilizada. Más tarde se deposita en unas tolvas. Existe una tolva llamada tolva de día y ahí se almacena toda la materia prima que se va a utilizar en un día de proceso. Existen unas ollas de agua caliente a más de 90 grados centígrados para facilitar el cocimiento del producto, hacerlo más rápido.
Se trae la materia prima de los silos que se va a utilizar durante el proceso. Primero se hace una filtración de toda la materia prima, principalmente de la malta, cebada y arroz, para eliminar cualquier basurita u objeto no deseado en el proceso. En seguida se pasa a los molinos para ser triturada, se trituran 4.5 toneladas por hora. En esta molienda lo que se hace es rasgar el material sin hacerlo polvo para que el cocimiento sea más fácil. Pasa a las tolvas báscula y se pesa la materia prima y ahí es donde se empiezan a diferenciar las marcas. Es ligeramente distinta la cantidad de material de una cerveza a otra.
El arroz y el maimilo son almidones de cadenas de azúcares muy largas y por eso se cocen para cortar dichas cadenas y que queden iguales a las cadenas de la malta y la cebada, que sus cadenas son más cortas. Esto hace que la mezcla se haga homogénea. Ya que están bien cocidos el arroz y el maimilo se pasan a los maceradores que son una especie de licuadoras donde se están moliendo la cebada y la malta. Con el cocimiento de las 4 materias primas se obtiene azúcares, que pueden ser de dos tipos: fermentables y no fermentables. Las no fermentables le van a dar cuerpo a la cerveza, es decir, que no sea simplemente agua. Las azúcares fermentables son las que se van a poner en las levaduras en las cámaras frías para producir el alcohol. Una vez que ya está licuado se va a obtener un líquido de color amarillo llamado mosto dulce, puesto que está formado de azúcares. El mosto se cuela.
El lúpulo es la materia prima encargada de dar el sabor amargo y el olor característico a la cerveza, este es un producto importado de lugares donde nieva. Existen unos filtros lauther que sirven para separar el mosto dulce de la masilla. Estos filtros tienen un falso fondo en el cual cae el líquido y se va quedando la masilla. Esta masilla se venda para ser utilizada como alimento de ganados porque tiene muchas proteínas. Una vez filtrado el líquido pasa a los últimos filtros, donde se realiza la última filtración de ahí el mosto se pasa a las pailas donde se pone a hervir. Al momento de hervir se le agrega el lúpulo y se pasa a unos tanques que actúan con una fuerza centrífuga, es decir que gira en contra de las manecillas del reloj y lanza el mosto que ya le llamamos mosto caliente porque ya se le quitó lo dulce; esto hace que todo lo sólido se concentre en la parte central y cuando se deja de aplicar la fuerza se precipita, y así queda limpio el mosto. Una vez limpio el mosto se deja al proceso de fermentación en las salas frías.
El mosto caliente pasa las salas frías a través de un enfriador y su temperatura decrece de más de 90ºC a sólo 6ºC gracias a la participación de agua y glicol. Una vez estable a una baja temperatura se le inyecta aire y la levadura, que son microorganismos que al estar en contacto con el aire se reproducen. El aire desaparece y las levaduras empiezan a comerse las azúcares fermentables y al comérselas liberan alcohol y gas carbónico. Este gas carbónico se limpia y se reutiliza en el proceso de envasado, para formar la espuma de la cerveza. Una vez que se está levando a cabo la fermentación se diferencian las marcas debido a que unas necesitan más tiempo de fermentación que otras. Esta fermentación dura de una semana hasta dos semanas de fermentación. Después de esta fermentación la cerveza esta «recién nacida», por lo que hay que dejarla madurar. Esto da todas las características de una cerveza como su olor, color, sabor, brillantez.
Las salas frías se mantienen a esa temperatura gracias al gas carbónico. Estas son las condiciones ideales para que se lleve a cabo la fermentación, las cuales son la ausencia de aire y la baja temperatura. Una vez que ya esta hecha la fermentación, se filtra la levadura y se sustrae el gas. La levadura que se separa se vuelve a usar por diez generaciones, es decir se reutiliza diez veces.
Ya que se separó la levadura se pasa a una sala de gobierno, en la que ya termina su reposo y está lista para ser envasada.
Existe un laboratorio donde se hacen las pruebas para verificar la calidad de la cerveza desde la materia prima hasta que ya está envasada. La gente que trabaja en este laboratorio es la encargada de que la cerveza cumpla con los estándares de calidad. Se hacen dos tipos de pruebas, una son analíticas, que revisan todo el proceso físico de la cerveza, su color, olor, sabor, brillantez, etc.; y en las pruebas microbiológicas, hacen prueban revisando todos los microorganismos que pueda haber en la cerveza y en el ambiente para que ninguno afecte las características de la cerveza.
El proceso de envasado comienza cuando del almacén se traen las cajas con las botellas vacías de los depósitos. El llenado de las botellas es un proceso en series. Durante el transcurso de las botellas, éstas son lavadas con sosa cáustica para evitar cualquier tipo de microorganismo en ella. A la botella ya llena se le hace pasar por unos sensores electrónicos que distinguen si una de ellas no tiene algo propio, no está totalmente llena o está rota. En el llenado, a la cerveza se le agrega gas carbónico y agua caliente para que ésta haga espuma y no exista aire al momento de taparla.
Las enormes reservas de agua del mar y aguas salubres de distintas procedencias, al mismo tiempo que las dificultades planteadas en muchos países ante la escasez de agua dulce, han obligado a tomar en consideración las posibilidades de su tratamiento económico, y actualmente existe una corriente de interés en la realización de programas de estudio relativos a los distintos métodos de desalinización.
Los procedimientos de desalinización son numerosos y responden a técnicas muy diversas; sin embargo, pueden dividirse en dos grandes grupos:
Grupo 1.- El agua cambia de estado en el curso del tratamiento:
pasando por una fase gaseosa (destilación):
*Procedimiento por compresión de gases;
*Procedimiento térmico de múltiple efecto;
*Procedimiento térmico «multiflash» (expansiones múltiples)
b)pasando por una fase sólida:
*Congelación
*Formación de hidratos (Procedimiento en fase de laboratorio).
Grupo 2.- El agua no cambia de estado en el curso del tratamiento
(procedimientos con membranas):
*electrodiálisis;
*ósmosis inversa.
Destilación.-
La destilación se aplica especialmente en la desalinización del agua de mar. Existen diferentes métodos de destilación, que pueden agruparse según dos sistemas fundamentales: procesos térmicos y procesos por compresión.
En el primer caso, la energía necesaria se suministra, en su mayor parte, en forma de calor y, en el segundo, exclusivamente en forma de trabajo, puesto que el vapor se comprime para obtener la diferencia de temperatura necesaria para el intercambio de calor. Los procedimientos técnicos, a su vez, pueden realizarse llevando el agua a ebullición (destilación de múltiple efecto), o bien impidiendo la ebullición y obteniéndose la evaporación por disminución de presión(sistema «flash»). Actualmente entre los métodos de destilación indicados, la destilación «multiflash» es la más utilizada.
Congelación.-
La congelación del agua del mar (-1.9 C) suministra cristales de hielo puro que se separan de la solución, la cual, a su vez, se concentra en sales.
Existen dos procedimientos de congelación directa:.
a)
Por expansión del agua (congelación en vacío). El agua de mar se congela parcialmente a una presión absoluta de 3mm de mercurio,
a -4 C. A esta presión se produce una evaporación, acompañada del enfriamiento correspondiente, que es el que provoca la congelación. Para mantener el vacío necesario es preciso aspirar de continuo el vapor de agua formado, pudiendo realizarse esta operación bien por un compresor mecánico, o por absorción en una solución higroscópica. En la práctica, los problemas de compresión del gran volumen de vapor producido a baja presión son considerables.
b)
Congelación con ayuda de un agente refrigerante. Se utiliza un refrigerante auxiliar cuya tensión de vapor sea netamente superior a la del agua y que no sea miscible con ella. El butano satisface estas condiciones. El agua de mar se congela parcialmente por la expansión del butano. Este procedimiento evita los problemas de compresión de la congelación del vacío.
Electodiálisis .-
La electrodiálisis consiste en el paso de iones a través de membranas permeables selectivas, bajo el efecto de una corriente eléctrica. Se colocan, en forma alternativa, una serie de membranas catiónicas y aniónicas , entre dos electrodos, entre los cuales circula el agua a tratar. Las membranas, permeables sólo a los cationes o los aniones, limitan la migración de los iones entre los dos electrodos, recogiéndose así, separadamente, una corriente de agua desmineralizada y otra enriquecida en iones.
Ósmosis inversa .-
Este método se basa en el empleo de membranas semipermeables que permiten el paso del agua, pero no el de las sales disueltas. Si se separan por una membrana semipermeable dos compartimientos abiertos a la atmósfera, uno de los cuales contiene agua pura y el otro una solución acuosa de sales, se comprueba que el agua atraviesa la membrana hacia la solución y que la presión del lado de la solución aumenta hasta alcanzar un cierto valor (presión osmótica) suficiente para anular el caudal de agua que atraviesa la membrana. Este fenómeno constituye la ósmosis directa y se da, en forma general, entre dos soluciones acuosas de diferentes concentraciones.
El fenómeno de ósmosis es reversible. Por lo tanto, aplicando a la solución una presión suficiente elevada, no solamente se anula el paso del agua a través de la membrana semipermeable a la solución, sino que se conseguirá un paso de agua prácticamente pura en sentido inverso, desde la solución que se ira empobreciendo en agua, hacia el otro lado de la membrana. Gracias a la ósmosis inversa puede obtenerse agua pura a partir de agua de mar
Todos hemos oído hablar de la entropía. Y muchos la hemos tenido que estudiar. Y junto a ella siempre aparecían conceptos como desorden, número de estados, irreversibilidad, espontaneidad, información, y otros. Pensemos en estos conceptos irremediablemente ligados a la entropía.
DESORDEN Y NÚMERO DE ESTADOS
Todos albergamos en nuestra cabeza un idea intuitiva del desorden. Sin embargo, hay que tener claro que en términos científicos, el desorden viene dado por el número de estados en los que un sistema puede estar. Un sistema estará más desordenado que otro cuando el número de estados diferentes en los que podemos encontrar al primero es mayor que los del segundo.
Piensa en algo desordenado … «¡mi habitación!» es lo que se os habrá ocurrido a más de uno. A tu madre le gustaría que lo tuvieses ordenado; es decir, tu madre sería la mujer más feliz del mundo si tuvieses los pantalones colgados en su percha dentro del armario, los zapatos en ese armarito que te compró para ello, los apuntes metidos en esas carpetas que te regaló para tu cumpleaños, los bolígrafos dentro de su bote y no tirados por la mesa (figura 1), …; es decir, cada cosa en su sitio. Tu cuarto estará ordenado cuando sólo pueda estar de una manera: cada cosa en su sitio.
Sin embargo, aparte de ocupar su sitio, tú permites que los objetos de tu cuarto puedan ocupar muchos más sitios: los pantalones pueden estar en sus perchas del armario, o encima la cama, o en el colgador de detrás de la puerta, o en una silla; los zapatos los puedes dejar en su armario o en cualquier lugar del suelo de tu habitación; tus apuntes pueden estar en sus carpetas o encima la mesa, o en tu mochila, o en la estantería, o sobre la cama reposando; los bolígrafos los puedes meter en su bote o mejor donde primero caigan.
Entonces, por la mañana podemos encontrar tu cuarto de una manera, pero por la tarde puede estar de otra si es que has cambiado las cosas de sitio. Cada vez que miremos tu habitación estará distinta y la sensación que se tiene es que tu habitación está desordenada. Tú permites más estados a tu habitación y, por tanto, está más desordenada, tanto en el sentido científico como habitual de la palabra desorden.
Teniendo en cuenta que la entropía es una medida del desorden, si tu habitación está más desordenada, termodinamicamente significa que está mas «entropizada».
ENTROPÍA E IRRREVERSIBILIDAD
Con pocos conocimientos termodinámicos sabemos que en los procesos irreversibles aumenta la entropía del sistema. Y viceversa, si un sistema experimenta un aumento de entropía tras un proceso, éste es irreversible.
Vamos a demostrarle a tu madre que una vez que tú desordenas el cuarto, es casi imposible volver a dejarlo con el orden inicial. Y es una cuestión de probabilidad.
Tu madre parte de una situación inicial en la que cada cosa sólo puede estar en un lugar: su sitio. Luego, a tu habitación sólo la podemos encontrar en un estado (pocos estados permitidos, mucho orden, poca entropía); séanse, por ejemplo, los pantalones en cuestión colgaditos de su percha dentro del armario. Tú los usas y luego los dejas en un sitio que ya no es el suyo, mismamente sobre la cama como que los podrías haber dejado en la silla. Es decir, ahora podemos encontrar a tu habitación en tres estados diferentes: con los pantalones en el armario, en la cama o en la silla.
Has realizado una transformación en la que la situación final tiene más estados que la inicial (situación inicial: sólo un estado, cada cosa en su sitio; situación final: tres estados, cada cosa en su sitio, o cada cosa en su sitio pero los pantalones en la cama, o cada cosa en su sitio y los pantalones en la silla.) (gráfico 1).
Entonces, este proceso en el que ha habido un aumento de estados, de desorden, de entropía ¿es reversible? Pues sí pero no. Si tú vuelves a coger los pantalones y los dejas otra vez, mientras sigas pudiéndolos dejar en cualquier sitio, seguro que no se te ocurre dejarlos justo donde los habías cogido la primera vez (de la percha del armario). La probabilidad de que el sitio que tu elijas al azar sea su sitio del armario no es la unidad, sino menor. Luego, existe una baja probabilidad de que justamente vuelvas a dejar las cosas donde estaban al principio.
Para tu madre, que sólo permite un estado al sistema, la probabilidad de dejar al cuarto en ese estado es la unidad. Mientras que para tí, existe
probabilidad 1/3 de dejar el cuarto ordenado (situación final 1ª)
probabilidad 2/3 de dejar el cuarto desordenado(situación final 2ª y 3ª)
Es decir, tu tienes más probabilidad de dejarlo desordenado porque existen más estados posibles así, y sólo uno en el que intuitivamente lo llamamos ordenado.
La solución pues es muy sencilla, no permitir a tus cosas más que un estado posible: el lugar que tu madre les asigne.
ENTROPIA Y ESPONTANEIDAD
Todos sabemos viendo el mundo que nos rodea que la espontaneidad implica irreversibilidad. Es decir, que si un proceso ocurre espontaneamente, sin aporte energético, no tiende a volver a la situación inicial, el proceso es irreversible. Lógico, ya que si ocurre espontaneamente es porque va a una situación más «cómoda» o más probable, y la Naturaleza no es tonta, y no va a volver a una situación inicial más «incómoda» o menos probable por las buenas.
Y acabamos de ver también que los procesos irreversibles implican un aumento de la entropía del sistema.
Luego, si espontaneidad implica irreversibilidad, y ésta aumento de entropía: los procesos espontáneos conllevan un aumento de entropía.
Tú madre se pregunta cómo es que tu habitación siempre está tan desordenada, siendo que incluso ella a veces la ordenada y coloca cada cosa en su sitio: los pantalones en su percha, y los zapatos en su armario, y los apuntes en su carpeta, y los bolígrafos en su bote. Sin embargo, tú cada vez que coges algo de tu habitación, lo dejas desordenado, aumentas la entropía de tu habitación.
¿Por qué? Fácil, porque tú cuando dejas algo en tu cuarto siguiendo la ley de la Naturaleza del mínimo consumo de energía, no te paras a pensar y para tí cualquier sitio está permitido para dejar tus cosas. Realizas un proceso espontáneo (sin aporte energético) que es dejar un objeto de tu habitación, y como lo puedes dejar en cualquier sitio, pues tu habitación la podemos encontrar de muchas maneras distintas; luego, más estados, más desorden, más entropía.
ENTROPÍA E INFORMACIÓN
Lo que tu madre no entiende es el que tu dejes tus cosas en otro sitio que no es el suyo, a tu hermana le sirve de mucho. Tú dejas a tus pantalones más de un estado posible (en el armario, o encima de la cama, o en la silla, o detrás de la puerta colgados) y esto le permite a tu hermana saber cual es tu estado de ánimo; según dónde dejas tus pantalones, ella sabe si vienes enfadado, risueño, melancólico, etc.. Si sólo permitieras un estado a tus pantalones (su sitio, séase el que decide tu madre, o cualquier otro) tu hermana perdería mucha información porque siempre pensaría que estás del mismo humor, el correspondiente al lugar asignado a tus pantalones. Pero, al menos, tu madre no se enfadaría.
Es decir, cuantos más estados permitidos tiene un sistema, mayor es la información que puede almacenar y proporcionar.
Para terminar, recordar que las analogías son útiles en tanto en cuanto las limites a su semejanza con la realidad. Es decir, una analogía no explica todo de aquello con lo que la comparamos. E insisto en mi agradecimiento a las posibles correcciones de esta analogía.