¿Qué es la entropía?

Date un Vlog
28 Oct 201707:08

Summary

TLDREl script explora el concepto de entropía en la física, una idea que a menudo se asocia con el desorden o el caos. Se destaca que la entropía es, en realidad, un contador de estados, y su importancia radica en la comprensión de las probabilidades de diferentes configuraciones. A través de un ejemplo con pelotas de colores en una caja, se ilustra cómo la entropía aumenta con el número de configuraciones posibles. La combinatoria y el triángulo de Pascal se utilizan para explicar por qué los estados de mayor desorden son más probables. Se discute cómo la entropía, definida como el logaritmo del número de configuraciones, fue descubierta por Ludwig Boltzmann y cómo su ley de la entropía establece que en un sistema aislado, el grado de desorden siempre aumenta. Esto tiene implicaciones profundas para la comprensión del universo y la segunda ley de la termodinámica, que establece que la entropía siempre crece, lo que nos lleva a una visión del universo como un reloj que avanza desde un estado de orden hacia un estado de caos final. Además, se menciona la triste historia de Boltzmann y cómo su legado ha influido en la física y la comprensión del mundo.

Takeaways

  • 🧠 La entropía es un concepto fundamental en física que a menudo se asocia con el desorden o caos.
  • 📏 La entropía se define matemáticamente como un contador de estados, es decir, el número de configuraciones posibles de un sistema.
  • 🎾 En un experimento con pelotas de colores, la probabilidad de un estado particular depende del número de configuraciones que tiene ese estado.
  • 📊 El triángulo de Pascal ilustra cómo los estados con partículas repartidas equitativamente tienen más configuraciones posibles y, por lo tanto, son más probables.
  • 🔢 La combinatoria muestra que los estados con partículas distribuidas uniformemente son más probables, lo que se traduce en un mayor grado de desorden.
  • 🌌 En un sistema de gas, el número de configuraciones en las que los átomos están distribuidos equitativamente es enormemente mayor que las configuraciones en las que están agrupados, lo que aumenta la probabilidad de desorden.
  • ⚗️ Ludwig Boltzmann describió la entropía como el producto de la constante de Boltzmann y el logaritmo del número de configuraciones de un estado, lo que dio inicio a la mecánica estadística.
  • 📚 La segunda ley de la termodinámica establece que la entropía en un sistema aislado siempre aumenta, lo que indica un aumento en el desorden.
  • ⏳ La entropía es la única ley física que permite distinguir el pasado del futuro, estableciendo una dirección en el tiempo.
  • 🌌 El universo se describe como un reloj que viaja en el tiempo desde un estado de orden hacia un estado de caos final, consumiendo energía y produciendo desorden.
  • 🔮 Aunque la entropía generalmente aumenta, el script plantea la cuestión de cómo pueden existir sistemas ordenados en un universo que tiende al desorden.

Q & A

  • ¿Qué es la entropía según el script proporcionado?

    -La entropía no es simplemente el desorden o caos, sino un contador de estados. Es una medida de la probabilidad de diferentes configuraciones de un sistema.

  • ¿Cómo se define matemáticamente la entropía en el script?

    -Matemáticamente, la entropía se define como el número de configuraciones de un estado elevado a la potencia negativa, es decir, como el logaritmo del número de configuraciones posibles de un sistema.

  • ¿Cómo se ilustra la idea de entropía con las pelotitas de colores en el script?

    -Se utiliza un ejemplo de cuatro pelotitas de colores en una caja dividida en dos. Al quitar el separador, las pelotitas se mueven libremente y la entropía se ilustra por la cantidad de configuraciones posibles que pueden existir en ese momento.

  • ¿Qué es el triángulo de Pascal y cómo se relaciona con la entropía?

    -El triángulo de Pascal es una herramienta matemática que muestra los coeficientes binomiales y se utiliza para ilustrar cómo la probabilidad de que las partículas se distribuyan equitativamente es más alta, lo que es un concepto clave en la entropía.

  • ¿Cómo se relaciona la entropía con la segunda ley de la termodinámica?

    -La segunda ley de la termodinámica establece que en un sistema aislado, la entropía siempre aumenta, lo que significa que el grado de desorden tiende a aumentar con el tiempo.

  • ¿Por qué la entropía es considerada como un contador de configuraciones más que solo un indicador de desorden?

    -La entropía es un contador de configuraciones porque mide la cantidad de formas en que los componentes de un sistema pueden estar organizados, y esto no siempre se traduce en desorden; puede ser una distribución equitativa de partículas.

  • ¿Qué significó el trabajo de Ludwig Boltzmann para la física y cómo se relaciona con la entropía?

    -Ludwig Boltzmann fue un pionero en el campo de la mecánica estadística y su ley de la entropía fue fundamental para entender fenómenos que no podían ser explicados de otra manera, estableciendo así una conexión entre la física y la teoría de la probabilidad.

  • ¿Cómo se relaciona la entropía con la dirección del tiempo o la idea de 'pasado' y 'futuro'?

    -La entropía es la única ley física que permite distinguir entre el pasado y el futuro, ya que indica que el universo tiende a evolucionar hacia estados de mayor desorden, lo que da una dirección a la evolución temporal del universo.

  • ¿Por qué es improbable que en un vaso de agua se forme espontáneamente un cubito de hielo, según el script?

    -Es improbable porque la formación de un cubito de hielo representaría un estado más ordenado y de menor entropía, lo cual va en contra de la tendencia natural del universo hacia estados de mayor desorden.

  • ¿Cómo se describe la visión del universo en el script en relación con la entropía?

    -El universo se describe como un gran reloj en el que viajamos en el tiempo desde un momento de orden absoluto (el Big Bang) hacia un estado final de caos, consumiendo energía y produciendo desorden.

Outlines

00:00

🧠 Entropía y su Concepto en la Física

El primer párrafo introduce el concepto de entropía, a menudo asociado con desorden o caos, pero que realmente es un contador de estados. Se utiliza un ejemplo de pelotas en una caja para ilustrar cómo la probabilidad de un estado particular depende del número de configuraciones que tiene ese estado. La entropía se define matemáticamente como el logaritmo del número de configuraciones posibles, y se vincula con la combinatoria para entender la preferencia natural del universo por el desorden en comparación con el orden. La entropía se describe como una magnitud que aumenta en un sistema aislado, lo que se debe a la probabilidad estadística de que las partículas se distribuyan de manera más equitativa, lo que es más probable que la agrupación en una esquina. Se menciona a Ludwig Boltzmann y su ley de la entropía, que ayudó a explicar fenómenos físicos y dio inicio a la mecánica estadística.

05:02

🔄 Segundo Principio y la Flecha del Tiempo

El segundo párrafo profundiza en la segunda ley de la termodinámica, que establece que la entropía en un sistema aislado siempre aumenta, lo que implica un aumento en el desorden. Se utiliza el ejemplo de recoger apuntes para ilustrar cómo es más probable que terminen en un estado desordenado que en uno ordenado. Se menciona que no hay leyes físicas que impidan procesos que llevan a un estado más ordenado, como el hielo formando un cubo en el agua, pero que son extremadamente improbables. La entropía es la única ley física que permite distinguir el pasado del futuro, y se describe el universo como un reloj que viaja en el tiempo desde el orden del Big Bang hacia un estado final de caos. Se menciona la vida y la muerte de Boltzmann, y cómo su ley de la entropía cambió la percepción del mundo. Finalmente, se hace una reflexión sobre cómo, a pesar del aumento de la entropía, la vida y la orden pueden existir en el universo.

Mindmap

Keywords

💡Entropía

La entropía es un concepto fundamental en física que se refiere a la cantidad de desorden o caos en un sistema. En el video, se define como un 'contador de estados', es decir, una medida de las diferentes configuraciones que puede adoptar un sistema. La entropía está estrechamente relacionada con la probabilidad, y los estados con más configuraciones posibles (y por lo tanto, más desorden) son más probables. Un ejemplo dado en el script es el de las pelotitas de colores en una caja, donde la probabilidad de que estén todas a un lado es mucho menor que la de que estén distribuidas de manera equitativa.

💡Desorden

El término 'desorden' se utiliza en el video para describir un estado de mayor entropía, donde los elementos de un sistema están distribuidos de manera más aleatoria o no estructurada. Se ilustra con el ejemplo de las pelotitas, donde el estado de mayor desorden es aquel en el que las pelotitas están repartidas de manera uniforme en la caja, lo cual tiene una probabilidad mucho mayor que el estado en el que todas las pelotitas están agrupadas en un solo lado.

💡Estados

Los 'estados' son las distintas configuraciones que puede adoptar un sistema en términos de la distribución de sus partículas o elementos. En el contexto del video, los estados se relacionan directamente con la entropía; un sistema con más estados posibles tiende a tener una mayor entropía. Por ejemplo, el script menciona que el número de estados para una pelota a la izquierda es 0.5 a la cuarta, y este número aumenta con el número de pelotitas que se consideran.

💡Probabilidad

La 'probabilidad' en el video se refiere a la posibilidad de que ocurra un cierto estado en un sistema. Se establece una relación directa entre la probabilidad de un estado y el número de configuraciones que tiene ese estado. Cuanto más configuraciones un estado tiene, mayor es su probabilidad de ocurrir, lo que se demuestra con la comparación de los estados de las pelotitas y su distribución en la caja.

💡Combinatoria

La 'combinatoria' es una rama de las matemáticas que trata de calcular en cuántas formas diferentes se pueden combinar los elementos de un conjunto. En el video, se utiliza para generalizar el número de configuraciones posibles para un estado, utilizando fórmulas como 'm sobre n', que representa el número de combinaciones de m elementos tomados de un conjunto de n. El script utiliza el triángulo de Pascal para ilustrar cómo el número de configuraciones aumenta con el número de partículas.

💡Triángulo de Pascal

El 'Triángulo de Pascal' es una herramienta matemática que se utiliza para representar los coeficientes binomiales y se menciona en el video como una forma de visualizar cómo el número de configuraciones posibles de un sistema aumenta con el número de elementos. El triángulo muestra que los estados con partículas equitativamente repartidas son los más probables, ya que tienen el mayor número de combinaciones.

💡Ley de Boltzmann

La 'Ley de Boltzmann', mencionada en el video, establece que la entropía es el producto de la constante de Boltzmann y el logaritmo del número de configuraciones posibles de un estado. Esta ley fue fundamental en el desarrollo de la mecánica estadística y en la comprensión de fenómenos que no podían ser explicados de otra manera, como el aumento de la entropía en sistemas aislados.

💡Mecánica Estadística

La 'Mecánica Estadística' es una rama de la física que utiliza principios estadísticos para describir el comportamiento de sistemas físicos a gran escala, donde los efectos de la probabilidad y la entropía son cruciales. En el video, se destaca cómo la entropía, definida por Boltzmann, es un concepto clave en esta área de la física, y cómo la segunda ley de la termodinámica, que establece que la entropía siempre aumenta en un sistema aislado, tiene implicaciones profundas sobre la evolución del universo.

💡Segunda Ley de la Termodinámica

La 'Segunda Ley de la Termodinámica' es una ley fundamental en física que establece que la entropía de un sistema aislado siempre aumenta con el tiempo. Esto significa que el sistema tiende naturalmente al estado de mayor desorden. En el video, se utiliza para explicar por qué ciertos procesos, como el derretimiento del hielo o la ruptura de un huevo, ocurren espontáneamente, mientras que otros, como la formación de hielo en un vaso de agua, no lo hacen.

💡Universo

El 'Universo' en el video se utiliza como un ejemplo a gran escala para ilustrar la aplicación de la entropía y la segunda ley de la termodinámica. Se describe cómo el universo, desde un estado de orden tras el Big Bang, ha estado en un proceso de aumento de entropía, es decir, de producción de desorden, hasta alcanzar un estado final de caos. Este concepto se relaciona con la idea de que la entropía ayuda a distinguir el pasado del futuro y a entender el flujo del tiempo.

Highlights

Entropía es un concepto fundamental en la física que generalmente se define como desorden o caos.

La entropía es un contador de estados, una medida de las configuraciones posibles de un sistema.

Se utiliza la combinatoria para generalizar el número de configuraciones de un estado.

El triángulo de Pascal ayuda a visualizar cómo la probabilidad de un estado depende del número de configuraciones.

La entropía aumenta en un sistema aislado, lo que se refleja en la segunda ley de la termodinámica.

Ludwig Boltzmann describió la entropía como el logaritmo del número de configuraciones de un estado.

La naturaleza por probabilidad prefiere el desorden al orden, lo que define la tendencia de la entropía.

La entropía es una magnitud clave en la mecánica estadística y la teoría de la probabilidad.

La entropía siempre aumenta en un sistema aislado, lo que indica una mayor probabilidad de desorden.

La ley de la entropía de Boltzmann fue un avance significativo en la física del siglo XIX.

La entropía es la única ley física que permite distinguir el pasado del futuro.

El universo se ve como un reloj en el que la energía se consume para producir desorden.

La entropía es una medida del grado de desorden y su aumento es inevitable en un sistema aislado.

La pregunta de si existen entidades ordenadas en un universo donde la entropía siempre crece es un misterio.

Ludwig Boltzmann, a pesar de sus contribuciones significativas, enfrentó ataques y mofa por sus ideas.

La entropía y su efecto en el universo y la física estadística cambiarán la forma en que vemos el mundo.

Los libros del autor sobre física son una fuente de aprendizaje accesible para todos los públicos.

La próxima charla del autor en la Universidad de Cantabria sobre materia oscura es un evento esperado por los seguidores.

Transcripts

play00:00

hola hijos de boltzmann listos para que

play00:01

les estalle completamente el cerebro hoy

play00:03

vamos a repasar uno de los conceptos más

play00:04

escurridizos de la física el de entropía

play00:14

[Música]

play00:22

normalmente la gente define la entropía

play00:24

como desorden o caos y puede servir pero

play00:28

para entender verdaderamente el sentido

play00:30

y la importancia de este poderosísimo

play00:32

concepto es la entropía es muy

play00:35

importante entender las sutilezas de su

play00:37

definición vamos con ello en realidad

play00:39

entro bien no es más que un contador de

play00:41

estados un contador nada más de hecho

play00:44

matemáticamente se define cómo y qué

play00:47

sentido tiene esto pongamos cuatro

play00:49

pelotas de colores en movimiento en la

play00:51

mitad de una caja y quitemos el

play00:53

separador vamos a suponer que las

play00:55

pelotitas no pierden energía al chocar

play00:56

con las paredes así que siempre se

play00:58

encuentran en movimiento

play01:00

si yo paro esta película en un instante

play01:02

de probabilidad hay de que las cuatro

play01:04

pelotitas estén a la izquierda pues toca

play01:07

hacer matemáticas

play01:10

teniendo en cuenta que las pelotas se

play01:11

mueven por todo el espacio la

play01:14

probabilidad será la probabilidad de que

play01:16

la pelota amarilla esté a la izquierda

play01:18

0.5 por la probabilidad de que la roja

play01:21

esté a la izquierda 0.5 y así con el

play01:23

resto de pelotas es decir 0,5 a la

play01:27

cuarta y de que haya 3 a la izquierda y

play01:29

1 a la derecha pues igualmente será de

play01:31

0.5 a la cuarta solo que ahora a la

play01:34

derecha puede estar la pelota amarilla

play01:36

la roja la azul o la verde así que la

play01:39

probabilidad total es 4 veces mayor en

play01:42

general se puede ver que la probabilidad

play01:44

de un estado en particular depende del

play01:47

número de configuraciones que tiene ese

play01:49

estado es decir es un contador de

play01:51

configuraciones para el estado donde

play01:54

todas las pelotas están a la izquierda

play01:55

sólo hay una configuración para el

play01:58

estado donde hay una pelota a la derecha

play01:59

hay 4 para el estado donde hay 2 pelotas

play02:03

a la derecha hay 6 para el de 3 a la

play02:05

derecha hay de nuevo 4 y para el estado

play02:08

donde las cuatro pelotitas están a la

play02:09

derecha hay nuevamente una única

play02:12

configuración los matemáticos que son

play02:14

gente muy lista generalizan esto usando

play02:17

la combinatoria en particular se puede

play02:19

ver que el número de configuraciones de

play02:21

un estado se puede escribir como un 4

play02:24

sobre 0 4 sobre 14 sobre 24 sobre 3 o 4

play02:27

sobre 4 en general m sobre n que

play02:30

desarrollamos como n factorial entre n

play02:34

factorial por m n factorial pueden ver

play02:38

que los estados donde las partículas

play02:39

están repartidas 2 y 2 son más probables

play02:42

porque tienen más configuraciones

play02:44

posibles simplemente por eso por

play02:46

combinatoria en general esto se puede

play02:48

ver más claro con lo que se conoce como

play02:50

el triángulo de pascal este triángulo

play02:52

nos da estos coeficientes para un número

play02:55

n de pelotas y ven que siempre es máximo

play02:58

cuando las pelotitas están repartidas

play03:01

equitativamente y esto es algo que se

play03:03

acentúa más y más cuando aumenta el

play03:05

número de pelotitas con documenta n por

play03:08

ejemplo para 200 pelotitas el número de

play03:10

configuraciones que tienen todas a la

play03:12

izquierda es una mientras que el número

play03:14

de configuraciones para el estado donde

play03:16

están 100 y 100 es de 9 por 10 elevado a

play03:20

58 ya estamos listos

play03:22

ser física pongamos una caja donde en su

play03:25

mitad colocamos un gramo de hidrógeno y

play03:27

quitamos el separador en este gas hay el

play03:30

número de avogadro de átomos es decir 10

play03:32

elevado a 23 muchísimo el número de

play03:34

configuraciones en las que los átomos

play03:36

están repartidos equitativamente lo que

play03:39

llamaríamos desorden es un numero

play03:41

tremendísima mente grande mientras que

play03:43

el número de confirmaciones en las que

play03:45

todos los átomos se encuentran a la

play03:46

izquierda lo que llamaríamos orden es 1

play03:49

lo que hace que la probabilidad sea

play03:50

tremendísima mente baja prácticamente

play03:52

nula se arrimó la compuerta al gas se

play03:55

distribuye por todo el volumen y no hay

play03:57

ninguna fuerza que esté tirando ni

play03:58

ninguna ley que haga que todos los

play04:00

átomos se esparza no no no es

play04:02

simplemente que esta configuración es

play04:04

más probable he hecho no hay ninguna ley

play04:05

que impide que todas las partículas se

play04:07

agrupen en una esquina simplemente es

play04:09

tan improbable que nunca lo vamos a ver

play04:11

es el poder de la estadística la

play04:13

naturaleza simplemente por probabilidad

play04:16

prefiere el desorden al orden así

play04:19

definimos la entropía como el producto

play04:21

de la constante de bozman una constante

play04:23

universal por el logaritmo de un mega el

play04:26

número de configuraciones de ese estado

play04:28

ludwig boltzmann dio con esta ley al

play04:30

final del siglo 19 cuando todavía no

play04:32

estaba completamente aceptada la

play04:34

existencia de los átomos y así podía

play04:36

describir ciertos fenómenos que de otra

play04:37

forma no se podían entender le echó el

play04:39

inicio una nueva rama de la física

play04:41

íntimamente ligada a la teoría de la

play04:43

probabilidad es lo que conocemos como la

play04:46

mecánica estadística y simplemente

play04:48

definió una nueva magnitud la entropía

play04:50

que simplemente se define como el

play04:52

logaritmo del número de configuraciones

play04:54

de un estado en estas condiciones se

play04:56

puede ver que en cualquier sistema

play04:57

aislado la entropía o el grado de

play04:59

desorden siempre aumenta tomemos mis

play05:02

apuntes de mecánica estadística y

play05:03

tiremos los al aire

play05:07

qué probabilidad hay de que al

play05:08

recogerlas queden perfectamente en orden

play05:10

el estado ordenado solo tiene una

play05:12

configuración aquel en el que cada

play05:14

página está en su orden mientras que se

play05:16

puede establecer cientos de miles de

play05:18

configuraciones en el cual el estado

play05:20

final está desordenado es más probable

play05:22

que ocurra entonces es simplemente

play05:24

entropía de hecho no hay ninguna ley

play05:25

física que impida que en un vaso de agua

play05:27

se forme espontáneamente un cubito de

play05:29

hielo pero nunca lo veremos ocurrir ya

play05:31

que lleva a un estado más ordenado de

play05:33

menor entropía lo contrario si es más

play05:35

natural vemos hielo al derretirse huevo

play05:38

romperse hojas arder la entropía mueve

play05:41

el mundo la segunda ley de la entropía

play05:42

en la que nos dice que en un sistema

play05:44

aislado la entropía siempre crece nos

play05:46

recuerda que siempre es más fácil

play05:47

deshacer que hacer olvidar que recordar

play05:50

destruir que construir de hecho es la

play05:53

única ley física que permite distinguir

play05:55

el pasado del futuro las flechas del

play05:57

tiempo así vemos hoy el universo como un

play06:00

gran reloj en el que viajamos en el

play06:02

tiempo desde un momento de orden

play06:04

absoluto el 'big bang' consumiendo

play06:06

energía para producir desorden hasta que

play06:08

el universo sumido en el caos final

play06:10

expide su último aliento

play06:12

el padre era entropía uno de los mejores

play06:14

físicos de la historia se ahorcó a los

play06:16

60 años de edad los continuos ataques a

play06:18

sus ideas la mofa de sus compañeros sus

play06:20

continuas peleas agudizaron su estado de

play06:23

depresión en su tumba se puede leer su

play06:25

mayor aportación la forma con la que voz

play06:27

man cambió el mundo su ley de la

play06:28

entropía seguro que desde hoy van a ver

play06:30

el mundo con otros ojos los ojos de luz

play06:33

batman y yo tengo una pregunta para

play06:35

usted es si en el universo siempre crece

play06:37

la entropía generando un estado de mayor

play06:38

desorden cómo es que puedan existir ser

play06:41

están ordenados como nosotros me despido

play06:43

recordándoles que pueden adquirir mis

play06:45

dos libros del bosón de higgs no te va a

play06:46

ser la cama e inteligencia física a

play06:48

través de amazon en cualquier parte del

play06:50

mundo dos libros para aprender de física

play06:51

de forma sencilla para todos los

play06:53

públicos que pueden ver el martes día 31

play06:55

en cantabria en la universidad hablando

play06:58

de materia oscura y que le dé mucho al

play06:59

coco porque quién sabe si algunos de los

play07:01

seguidores de date un voltio date un

play07:02

blog sea algún día el futuro albert

play07:05

eisntein nos vemos el próximo vídeo

Rate This

5.0 / 5 (0 votes)

Ähnliche Tags
FísicaEntropíaOrdenCaosLudwig BoltzmannMecánica EstadísticaTeoría de la ProbabilidadSegunda LeyUniversoEnergía
Benötigen Sie eine Zusammenfassung auf Englisch?