ENTROPIA

ENTROPÍA

Rómulo Lander  [Caracas, 2019]

La palabra <entropía> procede del griego y significa <cambio>. Este concepto en su definición, conlleva de forma inevitable, la idea de un cambio del estado. Este concepto en física teórica no es fácil, ni de explicar, ni de entender. La <entropía> puede mostrarse como una medida [un valor] de la función de un estado de carácter expansivo. El calificativo de expansivo significa que no es estático. Ni es regresivo. La entropía  es <una magnitud> en un sistema aislado. Esta magnitud [entropía] crece en el transcurso del proceso de forma natural.[1]

El concepto de entropía se ha desarrollado en respuesta a la observación de que una cierta cantidad de energía, que se ha liberado en motores de combustión, siempre se pierde [ese algo de energía]. Esta cantidad perdida de energía, se debe a la disipación o la fricción. Por lo tanto cierta cantidad de energía, no se transforma en trabajo útil. Esa magnitud de energía perdida, se llama entropía.[2]

En termodinámica la entropía esta simbolizada con la letra <S> y representa una magnitud para un sistema termodinámico en equilibrio. La entropía expresa la magnitud de un micro-estado compatible con el macro-estado en equilibrio. En los sistemas termodinámicos la entropía revela y hace evidente <lo irreversible> de los cambios en estos sistemas termodinámicos.

También se puede decir que expresa el grado de organización del sistema. De tal manera que mientras hay más entropía, hay más desorden. También es la consecuencia de un incremento de la energía interna, frente a un incremento de temperatura del sistema.[3]

Los primeros motores de calor como el de Thomas Savery de 1698, los motores Newcomen de 1712 y el motor de vapor de Cugnot de 1769 <eran ineficientes>. Esto ocurría porque la conversión en trabajo útil, era de menos del 2% de la energía de entrada. El resto, el 98% de la cantidad de energía producida por el motor, se disipa y se pierde. Esa es una cantidad muy grande, lo cual lo hace ineficiente.

Durante los próximos dos siglos los físicos investigaron este enigma de la <energía perdida>. De esos estudios surgió un resultado, que fue el nuevo concepto de entropía.

En la década de 1850 Rudolf Clausius estableció el concepto del sistema termodinámico y postula la tesis de que en cualquier proceso <irreversible> una pequeña cantidad de energía térmica <Q> se disipa gradualmente a través de la frontera del sistema. Clausius siguió desarrollando sus ideas de la <energía perdida> y acuñó el término <entropía>.

Durante el próximo medio siglo se llevó a cabo un mayor desarrollo del concepto. Más recientemente el concepto de <entropía> ha encontrado aplicación en el campo análogo de <pérdida de datos> en los sistemas de transmisión de información.[4]

Cuando se plantea la pregunta: ¿Por qué ocurren sucesos en la Naturaleza de una manera determinada y no de otra manera? Se busca una respuesta que indique ¿cuál es el sentido de los sucesos? Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa que finalmente el trozo caliente se enfriará y el trozo frío se calentará. Finalizando en un equilibrio térmico. El proceso inverso: el calentamiento del trozo caliente y el enfriamiento del trozo frío es muy <improbable> que se presente. A pesar de conservar la energía. El universo tiende a distribuir la energía uniformemente.  Es decir, a maximizar la entropía. Intuitivamente la entropía es una <magnitud> física  que mediante un cálculo matemático, permite determinar la parte de la energía, por unidad de temperatura, que no puede utilizarse para producir trabajo.[5]

La <función termodinámica> llamada <entropía> es central para el segundo principio de la termodinámica. La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropía. Un sistema en una condición <improbable> tendrá una tendencia natural a reorganizarse, a una condición más probable [similar a una distribución al azar]. Reorganización que dará como resultado un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio y entonces se alcanzará la configuración de mayor probabilidad.

Una magnitud es una función de estado si y sólo si, su cambio de valor, entre dos estados es <independiente> del proceso seguido para llegar de un estado a otro. Esa caracterización de  función de estado es fundamental a la hora de definir la variación de entropía.

La <variación de entropía> nos muestra la variación del orden molecular ocurrido en una reacción química. Si el incremento de entropía es positivo, los productos presentan un mayor desorden molecular [mayor entropía] que los reactivos.[6]

En cambio, cuando el incremento es negativo, los productos son más ordenados. Hay una relación entre la entropía y la espontaneidad de una reacción química que viene dada por la <energía de Gibbs>.[7]

Dentro de la termodinámica o rama de la física que estudia los procesos que surgen a partir del <calentamiento de energías> y de la <puesta en movimiento> de diferentes elementos naturales, la entropía figura dentro de esta rama de la física, como una especie de desorden de todo aquello que es sistematizado, es decir, como la referencia o la demostración, de que cuando algo no es controlado, puede transformarse y desordenarse. La entropía, además, supone que de ese caos o desorden <existente en un sistema> surja una situación de equilibrio u homogeneidad, que a pesar de ser diferente a la condición inicial, suponga que las partes se hallan ahora igualadas o equilibradas.

Esta idea de <desorden termodinámico> fue plasmada mediante una función ideada por Rudolf Clausius a partir de un proceso cíclico reversible.

Entropía y desorden [8]

Cuando la energía es degradada dijo <Ludwig Boltzmann>[9] se debe a que los átomos asumen un estado más desordenado. Entonces la entropía es un parámetro del desorden. Esa es la concepción que se desprende de la nueva interpretación de Boltzmann. Por extraño que parezca, se puede crear una medida del desorden. Es la probabilidad de un estado particular, definido aquí como el <número de formas> en que se puede armar a partir de sus átomos.[10]

Jacob Bronowski autor del conocido libro <El ascenso del hombre> dice que coloquialmente, suele considerarse que la entropía  mide el desorden de un sistema. Es decir, su grado de homogeneidad. Un ejemplo doméstico sería el de lanzar un vaso de cristal al suelo: tenderá a romperse y a esparcirse. Mientras que jamás será posible que lanzando trozos de cristal se construya un vaso por sí solo. Otro ejemplo doméstico: imagínense dos envases de un litro de capacidad que contienen respectivamente pintura blanca y pintura negra. Con una cucharita se toma pintura blanca, se vierte en el recipiente de pintura negra y se mezcla. Luego se toma pintura negra con la misma cucharita, se vierte en el recipiente de pintura blanca y se mezclan. El proceso se repite hasta que se obtienen dos litros de pintura gris, que no podrán reconvertirse en un litro de pintura blanca y otro de pintura negra. La entropía del conjunto ha ido en aumento hasta llegar a un máximo cuando los colores de ambos recipientes están mezclados y han llegado a un equilibrio.

No obstante, considerar que la entropía es la medida del desorden de un sistema, sin tener en cuenta la naturaleza del mismo: es un error. Y es que hay sistemas en los que la entropía no es directamente proporcional al desorden, sino al orden.

Entropía como creadora de orden[11]

A pesar de la identificación entre la entropía y el desorden hay muchas transiciones de fase en la que emerge una fase ordenada y al mismo tiempo la entropía aumenta. En este aserto se muestra que esta paradoja se resuelve haciendo una interpretación literal de la famosa ecuación de Boltzmann <S = k log W>. Podemos verlo en la segregación de una mezcla tipo coloide. Por ejemplo, cuando el agua y aceite tienden a separarse. También en la cristalización de esferas duras: cuando agitamos naranjas en un cesto, éstas se ordenan de forma espontánea. De estos casos se deduce el concepto de fuerza entrópica o interacción, muy útil en la ciencia de polímeros o ciencia de coloides. [12]

El astrofísico <Alan Lightman>[13] reconoció que a los científicos les parece misterioso el hecho de que el universo fuera creado con este elevado grado de orden. Agregó que  cualquier teoría cosmológica viable debería explicar en última instancia esta contradicción de la entropía. Es decir que el universo no se halle en estado caótico.

De acuerdo con <ilya Prigogine>[14]  galardonado con el Premio Nobel de Química en 1977 cuando dice: <la producción de entropía contiene siempre dos elementos dialécticos: un elemento creador de desorden, pero también un elemento creador de orden. Y los dos están siempre ligados>.

Prigogine ejemplifica esta afirmación con el caso de un sistema compuesto de dos cajas comunicantes que contienen una mezcla de nitrógeno e hidrógeno. Si la temperatura del sistema es homogénea, también lo será la distribución del hidrógeno y el nitrógeno, pero si se somete al sistema a una constricción térmica se genera una disipación, un aumento de la entropía, pero también del orden, ya que el hidrógeno predominará en una de las cajas y el nitrógeno en la otra [fenómeno de anti difusión].

Relación de la entropía con la teoría de la información [15]

Gracias a la revisión de la física de los agujeros negros, recientes estudios han podido establecer una relación entre la entropía física y la entropía de la teoría de la información. Según la nueva teoría de <Jacob D. Bekenstein> el bit de información sería equivalente a una superficie de valor 1/4 del área de Planck.

De hecho, en presencia de agujeros negros, la segunda ley de la termodinámica sólo puede cumplirse si se introduce la entropía generalizada o suma de la entropía convencional, más un factor dependiente del área total de agujeros negros existente en el universo, del siguiente modo:

Los agujeros negros almacenarían la entropía de los objetos que engulle en la superficie del <horizonte de sucesos>. Stephen Hawking ha tenido que ceder ante las evidencias de la nueva teoría y ha propuesto un mecanismo nuevo para la conservación de la entropía en los agujeros negros.  Simplemente, al realizar un trabajo, se ocupa muy poca energía. La entropía se encarga de medir la energía que no es usada y queda reservada en un cuerpo.

La entropía como dirección o sentido del tiempo [16]

Como se demuestra en el Segundo Principio de la Termodinámica, de los dos únicos sentidos en que puede evolucionar un sistema, el espontáneo, es el que corresponde al estado del universo, con una igual o mayor entropía. Se entiende por lo tanto que <la entropía del universo> tiene un único sentido: <es creciente>. Es equiparable al paso del tiempo, cuyo sentido a ojos de la vida humana es siempre el mismo.

El tiempo pasa y la entropía crece hasta alcanzar el punto de máxima entropía del universo: <el equilibrio termodinámico>. A modo tanto de cuestión filosófica, como de cuestión científica, este concepto recae inevitablemente en la paradoja del origen del universo. Si el tiempo se seguido su camino sin parar, y seguirá asi de forma infinita, la entropía del universo no tendría sentido, siendo esta un concepto finito creciente en el tiempo y el tiempo un concepto infinito y eterno.[17]

Mis comentarios como Psicoanalista

El concepto de Entropía, como hemos visto hasta aquí es complejo y está condicionado a diversos factores. Como vimos el concepto de entropía es útil para comprender y medir <lo que se pierde> en todos lo estados atómicos que estén en movimiento y en intercambio. La entropía aparece cuando <un estado, va a pasar a otro estado>. En el Proceso de Cambio de un estado a otro es inevitable que ocurra la perdida de una porción de la energía empleada. Esto se llama Entropía.

Ahora bien ¿Que tiene que ver esto con el Psicoanalisis? Si consideramos la <Terapia psicoanalítica> como un <dialogo especial> entre un analizando y su analista y pensamos en el <intercambio de información> que ocurre en ambos sentidos de la dupla analítica, entonces podemos considerar que se trata de <dos estados atómicos independientes> que intercambian energía <en forma de información>. En un dirección el analizando habla [asocia libremente] y el analista escucha.

El hablar del analizando, es una energía codificada, que llega al oído del decodificador [el analista]. Es inevitable por la omni-presencia de la subjetividad que aparezca una cierta resistencia en la escucha del analista, que no puede captar el 100% de la dicho por el analizando en una forma <idéntica> a como fue pronunciado. Es decir una cierta cantidad de información, no es recibida, por el sujeto que escucha [el analista]. Esa cantidad de información que se pierde representa <el monto de la entropía> presente en esa dirección del dialogo analítico.

En la otra dirección, cuando el analista habla, igualmente el receptor [el analizando] va a recibir y procesar solo una parte de lo dicho por el analista. Esto es así por la presencia de la subjetividad y de la <resistencia> que habita la mente del analizando. Entonces va ocurrir una cierta pérdida de información de lo enviado por el analista. Habrá entonces otro <monto de entropía> inevitable.

En la técnica Psicoanalítica se sostiene la idea, de que el analista para conservar cierta <magnitud de eficacia> en su trabajo. Para eso se va a esforzar por hablar claro y breve. Preferiblemente con <preguntas analíticas> que invitan al analizando a descubrir por sí mismo, algo sugerido en la pregunta. Esto se hace para disminuir la <fuerza de la resistencia> [inercia] del analizando, quien resiste el saber de si-mismo. El propósito es disminuir el <monto de entropía> que está presente en la escucha que el analizando hace de lo que dice <la interpretación> del analista.

El análisis previo del analista que lo capacita para ejercer la <función analítica> es entre cosas, lograr disminuir <la resistencia del analista> en el momento de escuchar lo que analizando dice. Es decir, ayudar a disminuir la <magnitud de la entropía> en la mente del analista. Por eso el <límite de su acto> lo da el límite de hasta donde llegó, el analista en su análisis personal realizado durante su formación como analista.

VIDEOTECA

https://www.youtube.com/watch?v=LetmPf0XLBk&t=179s    Video sobre  ¿Qué és la entropía?   En español en 7 minutos]  Parte 1

https://www.youtube.com/watch?v=2mjjv1DESrU    Video sobre  ¿Qué és la entropía?   En español en 4 minutos]  Parte 2

https://www.youtube.com/watch?v=AOMUMBce41Q   Video sobre   <El paso del tiempo y la entropía>  En inglés con subtítulos en 3 minutos]

https://www.youtube.com/watch?v=F41on6Bicns     Video sobre  la  <entropía y el orden>.  En español en 1 minuto.

https://www.youtube.com/watch?v=OBfRAaE2n6I    Video sobre   <El paso del tiempo y la entropía>  En inglés con subtitulos en 3 minutos]

https://www.youtube.com/watch?v=fRG558zuWNU  Video sobre   <El paso del tiempo y la entropía>  En español en 3 minutos]

https://www.youtube.com/watch?v=tuqrvPQ7nAk    Video sobre   <ilya Prigogine>.  En español. Un documental en 54 minutos]

https://www.youtube.com/watch?v=g0fvXJutbGY    Video sobre  <Energía libre de Gibbs>.  En español en 9 minutos. Parte 1

https://www.youtube.com/watch?v=g0fvXJutbGY  Video sobre  <Energía libre de Gibbs>.  En español en 9 minutos. Parte 2

https://www.youtube.com/watch?v=IpR3vSUzA34    Video sobre   <Orden y desorden en la entropía>   En español en 1 minuto.

https://www.youtube.com/watch?v=fFXviqhzYvY&t=284s     Video sobre  <Entropía y el desorden>  En español en 11 minutos.

https://www.youtube.com/watch?v=reNELmcKAhc       Video sobre  <Entropía y Teoría de la Información>.   En español en 19 minutos.  Parte 1

https://www.youtube.com/watch?v=af_auu5YX0g   Video sobre  <Entropía y Teoría de la Información>   En español en 4 minutos. Parte 2

https://www.youtube.com/watch?v=A9ouH7fWj6Y   Video sobre  <Entropía y Leyes de la Termodinamica>  En español en 25 minutos.

https://www.youtube.com/watch?v=RNnUr2mK5_g    Video sobre  <Cálculo y variación de la entropía>  En español en 7 minutos.

 

https://www.youtube.com/watch?v=jyNN2fA3sMk   Video sobre  <La entropía>

En español en 4 minutos. Parte 1

https://www.youtube.com/watch?v=fFXviqhzYvY  Video sobre  <La entropía>

En español en 11 minutos. Parte 2

https://www.youtube.com/watch?v=Q2ba8itOJl8    Video sobre  <Entropía y termodinámica>  En español en 6 minutos.

https://www.youtube.com/watch?v=s7hujhjgoFU  Video sobre  <Entropía y Teoría de la Información>  En español en 1 minuto.

https://www.youtube.com/watch?v=Txd9rhcVl64   Video sobre  <Entropía y Teoría de la Información>  En español en 4 minutos.

]https://www.youtube.com/watch?v=wP53PDNc8fs   Video sobre  <Entropía y Teoría de la Información>  En español en 17 minutos.

https://www.youtube.com/watch?v=LetmPf0XLBk  Video sobre la <Entropia>

En español en 7 minutos

https://www.youtube.com/watch?v=vXcCB1SzV7Q  Video sobre la ¿Una entropia que destruye al universo?   En español en 6 minutos

https://www.youtube.com/watch?v=dI7CAOzCOVQ&t=622s  Video sobre  <Conferencia TED sobre Entropía y orden>  En español en 17 minutos.

BIBLIOGRAFIA

AUDI, Robert [1995]: Cambridge dictionary of philosophy

Cambridge University Press, England, 1995

BOYER, Carl [1991]: Historia de las matemáticas

John Wiley & son Editores, New York, 1980

BRUGGER, Walter [1988]: Diccionario de filosofía

Editorial Heder, Barcelona 1988

ENCICLOPEDIA ENCARTA de Microsoft en la WEB

ENCICLOPEDIA BRITÁNICA en la WEB

ENCICLOPEDIA WIKIPEDIA en la WEB

FERRATER-MORA, Jose [1994]: Diccionario de filosofía

Editorial Ariel, Barcelona España. 2004

PENROSE, Roger [2004]: El camino a la realidad

Random House Mondadori, Mexico. 2007

[1]    Video sobre  ¿Qué és la entropía?   En español

https://www.youtube.com/watch?v=LetmPf0XLBk&t=179s  [en 7 minutos]

https://www.youtube.com/watch?v=2mjjv1DESrU  [en 4 minutos]

[2]    Video sobre  <Entropía y termodinámica>  en español

https://www.youtube.com/watch?v=Q2ba8itOJl8   [en 6 minutos]

[3]    Video sobre  <La entropía>  En español

https://www.youtube.com/watch?v=jyNN2fA3sMk   [en 4 minutos]

https://www.youtube.com/watch?v=fFXviqhzYvY   [en 11 minutos]

[4]       Video sobre  <Entropía y Teoría de la Información>    En español

https://www.youtube.com/watch?v=reNELmcKAhc       [en 19 minutos]

https://www.youtube.com/watch?v=af_auu5YX0g         [en 4 minutos]

[5]      Video sobre  <Entropía y Leyes de la Termodinámica>    En español

https://www.youtube.com/watch?v=A9ouH7fWj6Y        [en 25 minutos]

[6]       Video sobre  <Cálculo y variación de la entropía> En español

https://www.youtube.com/watch?v=RNnUr2mK5_g      [en 7 minutos]

[7]      Video sobre  <Energía libre de Gibbs> En español

https://www.youtube.com/watch?v=g0fvXJutbGY          [en 9 minutos]

https://www.youtube.com/watch?v=g0fvXJutbGY          [en 8 minutos]

[8]     Video sobre   <Orden y desorden en la entropía>   en español

https://www.youtube.com/watch?v=IpR3vSUzA34   [en 1 minuto]

[9]      Video sobre <Ludwig Boltzmann>  en español

https://www.youtube.com/watch?v=0F-UO_sKhrA  [en 10 minutos

[10]     Video sobre  <Entropía y el desorden>  en español

https://www.youtube.com/watch?v=fFXviqhzYvY&t=284s   [en 11 minutos]

[11]      Video sobre  <Conferencia TED sobre Entropía y orden>  En español

https://www.youtube.com/watch?v=dI7CAOzCOVQ&t=622s  [en 17 minutos]

[12]    Video sobre  la  <entropía y el orden>  en español

https://www.youtube.com/watch?v=F41on6Bicns   [en 1 minuto]

12   Video sobre  <Alan Lightman en una charla TED>  En inglés con subtitulos.

https://www.youtube.com/watch?v=OBfRAaE2n6I   [en 19 minutos]  muy buena.

https://www.youtube.com/watch?v=fRG558zuWNU   [en 3 minutos]

[14]      Video sobre   <ilya Prigogine>   En español

https://www.youtube.com/watch?v=tuqrvPQ7nAk   [Un documental en 54 minutos]

[15]         Video sobre  <Entropia y Teoria de la Información>  en español

https://www.youtube.com/watch?v=s7hujhjgoFU     [en 1 minuto]

https://www.youtube.com/watch?v=Txd9rhcVl64     [en 4 minutos

]https://www.youtube.com/watch?v=wP53PDNc8fs    [17 minutos]’

[16]      Video sobre   <El paso del tiempo y la entropía>  en inglés con subtítulos

https://www.youtube.com/watch?v=AOMUMBce41Q   [en 3 minutos]

[17]    Video sobre  <sentido del tiempo y la entropía>  en español

https://www.youtube.com/watch?v=Vna5uxqdGdY   [en 8 minutos]