Atualizando a descrição do blog: Tive a intenção de criar este blog para divulgar conceitos, fatos históricos, curiosidades e outros temas sobre a grande ciência física. Existem muitos outros blogs sobre o assunto, mas a minha intenção principal é tentar escrever sobre assuntos de física vistos na graduação ou de pesquisa física para o público geral. Minhas ideias sobre temas para as colunas surgem de textos e artigos que vou lendo ao longo do meu trabalho acadêmico. Discussões são sempre bem vindas!
Abraço a todos!

sexta-feira, 6 de novembro de 2015

Leis da Termodinâmica - II

Dando continuidade ao texto sobre as leis da termodinâmica, vamos discutir um pouco sobre a segunda lei, que diz respeito sobre uma palavra que muitos conhecem, Entropia. De muitos modos, entropia é muitas vezes entendida como o grau de desordem de um sistema físico qualquer, mas o que isso significa de um ponto de vista da teoria termodinâmica? Vamos ver a seguir.

O conceito de entropia está ligado ao número de estados possíveis de um dado sistema físico e geralmente associamos um valor de entropia tanto maior quanto o número de estados possíveis em que este sistema físico pode estar num determinado instante. Vamos dar primeiramente um exemplo: 

Suponha que temos uma caixa de lápis de cor com 12 unidades, que todos os espaços para os lápis estão preenchidos, ou seja, temos 12 lápis e quantidade de possibilidades de arranjar estes lápis de forma diferente é 12! ( 12x11x10x...x1), 12 fatorial. Este é nosso sistema físico, ou melhor, nosso sistema físico em seu estado 1. A esta quantidade de possibilidades damos o nome de estados possíveis do sistema. Suponhamos agora que aumentamos a nossa caixa de lápis de 12 para 24 cores, mas mantendo os mesmos 12 lápis. Então, nesta nova configuração do sistema, temos 24 posições para organizar 12 lápis, o que nos da um número muito maior de possibilidades de organizarmos os lápis, ou seja, um número muito maior de estados possíveis. Resumindo, se nosso sistema na configuração 1 é formado por 12 lápis e 12 posições e na configuração 2 por 12 lápis e 24 posições, dizemos que o estado 2 possui uma quantidade de possibilidades possíveis maior que o estado 1.

Este simples exemplo é importante porque pode ser estendido para um gás em uma caixa com uma parede no meio. As moléculas do gás irão poder ocupar um determinado número de posições nesta configuração, mas se eliminarmos o vínculo, ou seja, a parede que divide a caixa, o número de posições possíveis de serem ocupadas pelas moléculas aumenta. O mesmo vale para o caso de um pistão, e outros exemplos.


Nesta figura, a configuração do sistema da direita ou esquerda possui maior  entropia?


Em termos conceituais, a entropia de um sistema físico será tanto maior quanto maior o número de estados possíveis que este sistema pode estar em uma certa configuração. Está é uma visão conceitual da entropia. Interessante também é conceito de entropia pode ser visto em termos da informação que temos sobre o sistema. Tome como exemplo as partículas de um gás restritas a se moverem na metade da caixa. De certo modo, é mais fácil localizar as partículas do gás se elas estiverem restritas em uma metade da caixa do que se puderem se movimentar pela caixa inteira. 

Portanto: Quanto maior o nível de informação necessário para localizar um sistema físico, maior será a entropia deste sistema. E isto se aplica ao conceito de estados possíveis, como já vimos.

Dependendo da relação que a entropia tem com alguma propriedade do sistema, como quantidade de informação que temos dele ou seu grau de desordem, ela recebe diferentes nomes, mas o conceito é essencialmente o mesmo.

Discussões são sempre bem vindas.

Referência:

Fundamentals os Statistical and Thermal Physics, Reif, (Mac-Graw Hill, 1965).