La entropía ¿qué importancia tiene?

Hace relativamente poco tiempo, surgió en las redes sociales de México, un curioso interés por la palabra «entropía», sin entrar en más detalles sobre lo que motivó éste interés, es necesario que se comprenda realmente qué es la entropía, cuál es su origen y, sobre todo, cuál es su importancia en la vida cotidiana y en la ciencia moderna.

Primero lo primero, ¿qué significa la palabra entropía? Bueno, en sí podemos comprender a la entropía de dos formas que están profundamente relacionadas dentro de la misma área de la ciencia, es decir, la física, y en particular, con la que se especializa en termodinámica (a grandes rasgos la termodinámica es el estudio de cómo se relaciona el universo con la temperatura, en especial con el calor, pero en otra ocasión hablaremos de manera más extensa sobre ella). Pues bien, la entropía es una medida que puede comparar ya sea cuánta energía se ha perdido al realizar una actividad, ya sea un organismo vivo o una máquina, o bien, mide el desorden en un sistema de fluidos (un sistema de fluidos es dos o más sustancias con diferente densidad que, al juntarse sin revolverse se mueven una junto a la otra, como lo podrían ser agua y aceite o vapor de agua en el aire).

Ambas son ideas correctas de lo que significa la entropía y ambas están relacionadas desde que se enunció la segunda ley de la termodinámica. Ésta ley la podemos leer de dos maneras distintas, ya sea por la que se relaciona con la pérdida de energía o con el desorden:

Es imposible construir una máquina que, funcionando de manera continua, no produzca otro efecto que la extracción de calor de una fuente y la realización de una cantidad equivalente de trabajo (Tippens, 1997, pág. 450).

La entropía de cualquier sistema termodinámico aislado aumenta conforme aumenta el tiempo (Guillot Santiago, 1997, pág. 1).

Para lo que interesa en éste artículo, utilizaremos la definición proporcionada por Guillot, ya que considera que la magnitud de desorden se incrementa mientras más pasa el tiempo, lo que significa que si observamos dos sistemas termodinámicos en el momento de su inicio, ambos serán iguales ya que su nivel de entropía será cero, pero mientras más tiempo pase, ambos sistemas se volverán más distintos uno del otro debido a que su desorden será más grande. Para entender de manera más sencilla lo anterior, supongamos que existen dos cubos de hielo idénticos en tamaño, forma y peso, y ambos decidimos ponerlos en dos tazas que serán calentadas en una estufa con la misma intensidad de calor. En un inicio el orden de las moléculas que formaban los cubos de hielo era el mismo, pero mientras más avanza el tiempo y van ganando calor, los dos cubos de hielo se van deformando en figuras distintas una de la otra, hasta que ambos se convierten en líquidos. En este caso, podemos ver nuevamente una especie de orden de parte de los líquidos debido a que se encuentran dentro de la taza, es decir, es el objeto sólido que los contiene lo que reduce la entropía, pero si seguimos aplicando calor, ese líquido que es el agua resultante del hielo derretido será evaporada, y entonces las tazas que las contienen no serán capaces de reducir el desorden de las moléculas y entonces el vapor tomará la forma desordenada que resulte por las variaciones de las corrientes de aire que lo rodeen, por mínimas que éstas sean.

Ilustración 1
Ilustración 1: Desde el estado sólido del hielo hasta el estado de plasma de la flama, la dispersión de moléculas determina la entropía de un sistema. (Crisol Plural, 2010)

Todo esto lo podemos apreciar diario al ver hielo, corrientes de agua y, sobre todo, las nubes en el cielo, las cuales toman distintas formas mientras pasa más tiempo y son modificadas por los factores externos que se encuentran a su alrededor.

Como ha sido posible observar, mientras más sólido sea un objeto menor entropía poseen sus moléculas, es decir, mayor cantidad de energías externas y mayor cantidad de tiempo serán necesarios para que su entropía se eleve, pero, mientras más separadas se encuentren sus moléculas, como es el caso del vapor, será menor su necesidad de energía y tiempo para aumentar su entropía, es decir, el desorden de sus moléculas.

Ahora que entendemos qué es la entropía, es necesario conocer el origen de ésta palabra que, si bien es cierto que posee una etimología griega en la palabra «ἐντροπή» (pronunciada como entropḗ que significa «cambio» o «giro»), decir que ese es su verdadero origen sería quedarnos cortos, ya que el concepto que hoy conocemos es generado hasta el año 1824 con el físico e ingeniero Sadi Carnot (Nicolas Léonard Sadi Carnot), el cual en ese año publicó el libro «Reflexiones sobre la potencia motriz del fuego y sobre las máquinas adecuadas para desarrollar esta potencia«. Es precisamente en esa publicación donde Carnot expone las ideas sobre la segunda ley de la termodinámica que hemos mencionado, y es también ahí donde queda expresada la idea mejor aceptada hasta nuestros días sobre la entropía.

En su texto, Carnot expresa lo que anteriormente ya citamos, por lo que para evitar redundar en ello pasaremos a entender que el concepto dado por Carnot no es el único que existe sobre la entropía, ya que ésta palabra utilizada en un principio por la física, ha sido llevado a otras zonas de conocimiento como lo son la química, las matemáticas, la astronomía, la economía, la sociología, la psicología, la antropología y la informática, todas respetando la idea sobre el desorden, el tiempo y los factores externos.

Ahora es turno de comprender su importancia tanto en la vida diaria como en el entorno científico. Supongamos un ejemplo muy sencillo de la vida cotidiana para aplicar un poco del concepto de entropía desde la visión de las amas de casa y su eterno luchar contra la entropía dentro de las habitaciones de sus hijos adolescentes. En un principio, la habitación se encuentra ordenada, pero mientras más pasa el tiempo junto con las acciones del adolescente que ahí reside, el cuarto comienza a desordenarse hasta que el nivel de entropía de la recámara vuelve imposible incluso el tener acceso a su interior.

Ilustración 2
Ilustración 2: Habitación con un alto nivel de entropía. (Atelier Kasugi, 2013).

Quizás para los ya iniciados en el lenguaje científico les parezca muy burdo este ejemplo, pero en la vida cotidiana nos lo solemos encontrar continuamente, como también puede ser un escritorio de un oficinista que al inicio de sus labores empieza totalmente en orden, pero conforme avanza el tiempo nos encontramos con problemas de orden en el escritorio que se va llenando de papeles, agendas, correspondencia, enceres de papelería como sujeta papeles, plumas, lápices, gomas, revistas, y un largo etcétera sin contar con la computadora que quizás ha quedado ahogada en el alto nivel de entropía del empleado.

Ilustración 3
Ilustración 3: Ejemplos de escritorios con alto nivel de entropía.

Pero medir la entropía no solamente nos ayuda a comprender lo poco cuidadosos que somos los humanos en ordenar nuestros espacios de vivienda o laborales, sino que poseen aplicaciones prácticas en cuestiones tan serias como la economía, la informática, la química o la astrofísica.

De acuerdo con Montenegro «el contenido de información es función del inverso de las probabilidades de los eventos del espacio muestral, y la entropía es el promedio o valor esperado de dicha información» (Montenegro, 2011, pág. 199). Pero esto no nos dice nada si no conocemos de estadística o economía o ambas, así que traducido podemos entender que entropía indica qué tan importante es la información que nos otorgan los datos generados por algo que estemos estudiando, como puede ser la bolsa de valores, los precios de la gasolina en un periodo de tiempo, el tipo de cambio de una moneda respecto a otra (frecuentemente en México nos interesa el tipo de cambio del Peso mexicano respecto al Dólar estadounidense), o cualquier otra información que a los economistas les interese. Si vemos un nivel de entropía muy alto significa que la información que obtendremos de parte de lo que estamos estudiando no es muy importante, pero si el nivel de entropía es muy bajo entonces los datos de nuestro estudio son muy importantes y por lo tanto vale la pena seguir estudiándolos porque con ellos podremos predecir algo que muy probablemente ocurra.

Ilustración 4
Ilustración 4: En la Bolsa Mexicana de Valores (BMV) cada uno de los datos que se generan ahí poseen un nivel de importancia que se define por el nivel de entropía en su relación con el resto de los datos generados.

Por último, aunque existen infinidad de aplicaciones tanto cotidianas como científicas sobre la entropía, quizás la de mayor relevancia a últimas fechas es la que se puede utilizar en astrofísica, en particular con el tema de la teoría del Big Bang y la formación de las galaxias, las nebulosas y otros objetos en el universo que han tomado distintos diseños y los cuales son diferentes unos de otros, aunque pertenezcan al mismo tipo de objeto.

No trataremos en éste artículo ni desmentir ni afirmar la veracidad de otros autores al respecto, sino simplemente indicar porque para diseñar ideas sobre la formación de nuestro universo es de suma importancia el considerar a la entropía.

Como ya mencionamos, la entropía medirá el nivel de desorden que tomarán los objetos mientras que son afectados por distintos factores externos durante un tiempo determinado, pues en el caso de los astros no es la excepción. Primero es necesario comprender que el Big Bang (o gran explosión) es una teoría que postula que el universo se originó en una gran explosión, esta teoría se apoya en una gran cantidad de evidencias que trataremos en otra ocasión, no es una simple idea de los físicos o los astrónomos, sino un análisis que se desarrolló con gran cantidad de datos que nos ha proporcionado el universo mismo.

Pues bien, la teoría postula que el Big Bang ocurrió en un instante en el que una gran cantidad de materia se encontraba concentrada en un espacio muy pequeño, debido a ello, la presión generada por tanta materia ocasionó que ésta explotara, siendo impulsada en diferentes direcciones por la fuerza de la explosión, pero ésta explosión no se encontraba controlada y mucho menos poseía una dirección y potencia igual en cada uno de sus lados, sino que ocurrió de manera desordenada, y como se ha dicho, entonces su nivel de entropía se fue incrementando mientras más tiempo transcurría.

Ilustración 5
Ilustración 5: Existen diferentes representaciones artísticas sobre el Big Bang, en general se piensa que el Big Bang fue una explosión que arrojó toda la materia del universo en distintas direcciones, lo que da origen a las distintas formaciones de los objetos en él.

Referencias

Atelier Kasugi, K. (31 de Enero de 2013). KaSuGi: 31.1.13. Recuperado el 27 de Enero de 2016, de KaSuGi: http://atelierkasugi.blogspot.mx/2013/01/31113.html

Crisol Plural. (3 de Marzo de 2010). Energía a partir de agua salada | Crisol Plural. Recuperado el 26 de Enero de 2016, de Crisol Plural | desde la pluralidad, con inteligencia: http://crisolplural.com/2010/03/03/energia-a-partir-de-agua-salada/

Guillot Santiago, A. (1997). Entropía (Primera ed.). Ciudad de México, Distrito Federal, México: Universidad Nacional Autónoma de México, Facultad de Ciencias. Recuperado el 26 de Enero de 2016

Montenegro, Á. (8 de Diciembre de 2011). Información y entropía en economía. Revista de Economía Institucional(25), 199-221. Recuperado el 27 de Enero de 2016, de http://www.economiainstitucional.com/pdf/No25/amontenegro25.pdf

Tippens, P. (1997). FÍSICA. Conceptos y aplicaciones (Tercera ed.). (J. López Campoy, Ed., & Á. C. González Ruiz, Trad.) Ciudad de México, Distrito Federal, México: McGRAW-HILL INTERAMERICANA EDITORES, S.A. DE C.V. Recuperado el 26 de Enero de 2016

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.