Entropy and Thermodynamics   /   Entropía y Termodinámica

http://www.fgalindosoria.com/informatica/aspects/e_i/entropy_thermodynamics

 

Fernando Galindo Soria

English (www.fgalindosoria.com/en/ )       Español (http://www.fgalindosoria.com/ )

fgalindo@ipn.mx

Red de Desarrollo Informático   REDI

 

Aspects of Information

Entropy and Information  /  Knowledge  /  Linguistic Aspects  /  Fractals and Chaos /..

Aspectos de la Información

Entropía e Información  / Conocimiento  / Aspectos Lingüísticos  / Fractales y Caos,

Datos;   Estructuras;   Patrones;   Normas;   Dinero;   Código Genético, Sistema Nervioso, Neurotransmisores;   Cuerdas, Ondas, Señales, Ruido, Sonido,  Música;   Partículas;   Mezclas, Soluciones, Compuestos;  Campo, Espacio;   Entidades, Atributos, Relaciones;   Unidades de Materia, Energía e Información (UMEI);   Pensamiento;   Noticias, Memes;   Códices, Libros;   Qbit, Entrelazamiento;   Conjunto, Grupo, Anillo;   Sistemas Conexionistas, Redes Neurales;   Sistemas Formales;   Sistemas Evolutivos, Afectivos, Concientes;   Espacio de Caos, Espacio Probabilístico, Espacio Métrico;   Estructuras Arborescentes, Dendritas;   Continuo, Discreto (Numerable, No Numerable) ;   Multiarboles;   Matrices;   recursividad;…

 

Creación de la página www    Ciudad de México, 4 Abril del 2014

Últimas actualizaciones 4 Abril del 2014

 

La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación.

 

Entropía

Wikipedia, 20140626

"En termodinámica, la entropía (simbolizada como S) es una magnitud física que, mediante cálculo, permite determinar la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850;[1] [2] y Ludwig Boltzmann, quien encontró en 1877 la manera de expresar matemáticamente este concepto, desde el punto de vista de la probabilidad."

http://es.wikipedia.org/wiki/Entrop%C3%ADa

 

 

Entropía (desambiguación)

http://es.wikipedia.org/wiki/Entrop%C3%ADa_(desambiguaci%C3%B3n)

 

 

 

Cinco ecuaciones que cambiaron el mundo,  Michael Guillen

",,, Clausius, que es menos famosos incluso que Faraday (y los faradios). Pero sus descubrimientos tuvieron, tienen y sobretodo tendrán una importancia supina. Ni más ni menos descubrió la Segunda Ley de Termodinámica. Para mucha gente es como no decir nada; pero enunciar la 2ª ley de termodinámica tiene unas características asombrosas, es reconocer que todos vamos a morir y que algún día el Universo desaparecerá, más bien se parará.

El concepto clásico de que la energía ni se crea ni se destruye, sólo se transforma; se debe a Clausius. Y es la Ley de Conservación de la Energía, pero no se quedó aquí el hombre. Fue más allá y elaboró un concepto nuevo: entropía, removiendo los cimientos de la física. Entropía en griego significa transformación de contenidos, y se parece mucho a Energía (pero no confundir).

La física de Clausius se puede definir como que la energía del Universo es constante y que La cantidad de entropía del universo tiende a incrementarse en el tiempo. Lo que nos viene a decir que el Universo camina de forma inevitable tambaleándose hacia su destino último de reposo y relajación. Por suerte esto ocurrirá dentro de un tiempo que la mente humana aún no es capaz ni de imaginar, así que no sean pesimistas y Carpe Diem."

Chema Larrea, blog 0110101101001100101110

http://blog0110110101.wordpress.com/2011/01/11/5-ecuaciones-que-cambiaron-el-mundo/

 

Cinco ecuaciones que cambiaron el mundo,  Michael Guillen

"El capítulo "una experiencia nada provechosa" se refiere al físico Rudolf Julius Emmanuel Clausius y a su ecuación termodinámica, o más exactamente, a su desigualdad termodinámica.

revolucionarias"

Cinco ecuaciones que cambiaron el mundo

http://www.taringa.net/posts/noticias/4507527/Cinco-ecuaciones-que-cambiaron-el-mundo.html

 

 

Entropy

David M. Harrison, Department of Physics, University of Toronto, February 1999, This is version 1.7, date (m/d/y) 09/17/02. (Linked August 9, 2008)

http://www.upscale.utoronto.ca/GeneralInterest/Harrison/Entropy/Entropy.html

 

 

*****************************************************************************

 

Primera ley de la termodinámica

http://es.wikipedia.org/wiki/Primera_ley_de_la_termodin%C3%A1mica

Segunda ley de la termodinámica

http://es.wikipedia.org/wiki/Segunda_ley_de_la_termodin%C3%A1mica

Tercera ley de la termodinámica

http://es.wikipedia.org/wiki/Tercera_ley_de_la_termodin%C3%A1mica

 

 

Segundo principio de la termodinámica

Wikipedia 20140310

El segundo principio de la termodinámica o segunda ley de la termodinámica,[Nota 1] expresa que:

La cantidad de entropía del universo tiende a incrementarse en el tiempo.[Nota 2]

Es una de las leyes más importantes de la física; aún pudiéndose formular de muchas maneras todas llevan a la explicación del concepto de irreversibilidad y al de entropía. Este último concepto, cuando es tratado por otras ramas de la física, sobre todo por la mecánica estadística y la teoría de la información, queda ligado al grado de desorden de la materia y la energía de un sistema. La termodinámica, por su parte, no ofrece una explicación física de la entropía, que queda asociada a la cantidad de energía no utilizable de un sistema. Sin embargo, esta interpretación meramente fenomenológica de la entropía es totalmente consistente con sus interpretaciones estadísticas. Así, tendrá más entropía el agua en estado gaseoso con sus moléculas dispersas y alejadas unas de las otras que la misma en estado líquido con sus moléculas más juntas y más ordenadas.

El segundo principio de la termodinámica dictamina que si bien la materia y la energía no se pueden crear ni destruir, sí que se transforman, y establece el sentido en el que se produce dicha transformación. Sin embargo, el punto capital del segundo principio es que, como ocurre con toda la teoría termodinámica, se refiere única y exclusivamente a estados de equilibrio. ....

Así, según el segundo principio, cuando se tiene un sistema que pasa de un estado de equilibrio A a otro B, la cantidad de entropía en el estado de equilibrio B será la máxima posible, e inevitablemente mayor a la del estado de equilibrio A. Evidentemente, el sistema sólo hará trabajo cuando esté en el tránsito del estado de equilibrio A al B y no cuando se encuentre en uno de estos estados. Sin embargo, si el sistema era cerrado, su energía y cantidad de materia no han podido variar; si la entropía debe de maximizarse en cada transición de un estado de equilibrio a otro, y el desorden interno del sistema debe aumentar, se ve claramente un límite natural: cada vez costará más extraer la misma cantidad de trabajo, pues según la mecánica estadística el desorden equivalente debe aumentar exponencialmente.

Aplicado este concepto a un fenómeno de la naturaleza como por ejemplo la vida de las estrellas, las mismas, al convertir el hidrógeno, su combustible principal, en helio generan luz y calor. Al fusionar los núcleos de hidrógeno en su interior la estrella libera la energía suficiente para producirlos a esa intensidad; sin embargo, cuando intenta fusionar los núcleos de Helio no consigue liberar la misma cantidad de energía que obtenía cuando fusionaba los núcleos de hidrógeno. Cada vez que la estrella fusiona los núcleos de un elemento obtiene otro que le es más inútil para obtener energía y por ende la estrella muere, y en ese orden de ideas la materia que deja atrás ya no servirá para generar otra estrella. Es así como el segundo principio de la termodinámica se ha utilizado para explicar el fin del universo.

....

 la entropía de un sistema aislado termodinámicamente sólo puede incrementarse.

 

......La formulación clásica defiende que el cambio en la entropía S es siempre mayor o igual — exclusivo para procesos reversibles — que la transferencia de calor Q producida, dividido por la temperatura de equilibrio T del sistema:[2]

dS\geq\frac{\delta Q}{T} \!

http://es.wikipedia.org/wiki/Segundo_principio_de_la_termodin%C3%A1mica

 

 

*****************************************************************************

 

Gibbs Entropy Formula

Wikipedia 20140309

"The macroscopic state of the system is defined by a distribution on the microstates that are accessible to a system in the course of its thermal fluctuations. So the entropy is defined over two different levels of description of the given system. The entropy is given by the Gibbs entropy formula, named after J. Willard Gibbs. For a classical system (i.e., a collection of classical particles) with a discrete set of microstates, if E_i is the energy of microstate i, and p_i is its probability that it occurs during the system's fluctuations, then the entropy of the system is

S = -k_B\,\sum_i p_i \ln \,p_i

The quantity k_B is a physical constant known as Boltzmann's constant, which, like the entropy, has units of heat capacity. The logarithm is dimensionless.

This definition remains valid even when the system is far away from equilibrium...."

http://en.wikipedia.org/wiki/Entropy_(statistical_thermodynamics)

 

Formula de la Entropía de Gibbs

Traducido mediante Google de Wikipedia 20140309

http://en.wikipedia.org/wiki/Entropy_(statistical_thermodynamics)

"El estado macroscópico del sistema se define por una distribución en los microestados que son accesibles a un sistema en el curso de sus fluctuaciones térmicas . Así que la entropía se define en dos niveles diferentes de descripción del sistema dado. La entropía viene dada por la fórmula de la entropía de Gibbs, nombrada por J. Willard Gibbs . Para un sistema clásico (es decir, una colección de partículas clásicas) con un conjunto discreto de microestados, si E_i es la energía del microestado i , y p_i es su probabilidad de que se produzca durante las fluctuaciones del sistema, entonces la entropía del sistema es

S =-k_B \, \ sum_i p_i \ ln \, p_i

La cantidad k_B es una constante física conocida como la constante de Boltzmann , que, como la entropía, tiene unidades de capacidad de calor . El logaritmo es adimensional .

Esta definición sigue siendo válida incluso cuando el sistema está lejos del equilibrio"

 

 

Constante de Boltzmann

De Wikipedia, la enciclopedia libre

"La constante de Boltzmann (k o kB) es la constante física que relaciona temperatura absoluta y energía. Se llama así en honor del físico austriaco Ludwig Boltzmann, quien hizo importantes contribuciones a la teoría de la mecánica estadística, en cuyas ecuaciones fundamentales esta constante desempeña un papel central. Su valor en SI es:

   k
   \; \approx \;
   1,3806504 \times 10^{-23}\rm\ J/K =
   1,3806504 \times 10^{-16}\rm\ ergios/K

......

Aunque Boltzmann vinculó por primera vez la entropía y la probabilidad en 1877, al parecer la relación nunca se expresó a través de una constante específica sino hasta que Max Planck introdujo por vez primera k, y ofreció un valor exacto (1.346×10−23 J/K, aproximadamente 2.5% menor que la cifra que se usa hoy en día), en su derivación de la ley de la radiación del cuerpo negro en 19001901.[2]"

http://es.wikipedia.org/wiki/Constante_de_Boltzmann

 

Donde

ergio unidad de medida de energía en el sistema de unidades CGS (centímetro-gramo-segundo),

 

K o Kelvin unidad de temperatura de la escala creada por ..Lord Kelvin, ..sobre la base del grado Celsius, estableciendo el punto cero en el cero absoluto (−273,15 °C)

http://es.wikipedia.org/wiki/Kelvin

 

 

*****************************************************************************

 

 

Ir a Portal de Fernando Galindo Soria

 

Aspects of Information   /   Aspectos de la Información

Datos;   Entropía e Información;   Conocimiento;   Estructuras;   Patrones;   Normas, dinero, neurotransmisores;   ;   Cuerdas, ondas y partículas, señales, ruido;   Mezclas, Soluciones, Compuestos;   Aspectos lingüísticos;   Léxico, sintaxis, semántica;....Fractales y Caos;   Cristales;   Campo, Espacio;.... Entidades, atributos, relaciones;....

 

Entropy and Information   /   Entropía e Información

 

Entropy and Thermodynamics   /   Entropía y Termodinámica

 

Entropy  and Information   /    Entropía e Información

 

Maxwell's demon   /   El demonio de Maxwell

 

Negentropy and Information   /   Neguentropía e Información

negative entropy    entropía negativa    neg entropy    neg entropía......

neguentropía     negantropía     sintropía .....

 

Current Research in Entropy and Information

Investigaciones Actuales sobre Entropía e Información

 

Entropy and Information Some Related Areas

Algunas Áreas Relacionadas sobre Entropía e Información