terça-feira, 1 de novembro de 2011

HISTÓRIA DA ÓPTICA

 HISTÓRIA DA ÓPTICA
1. O princípio
As origens da tecnologia óptica situam-se na antiguidade remota. No livro do Êxodo, 38:8 (1200 a.C.), conta-se como Bezaleel, na preparação da Arca e do Tabernáculo, utiliza "os espelhos das mulheres" para construir a bacia de bronze (um recipiente sagrado). Os espelhos primitivos eram feitos de cobre polido, bronze, e mais tarde, de espéculo, uma liga de cobre rica em estanho.
Os filósofos gregos Pitágoras, Demócrito, Empédocles, Platão, Aristóteles e outros desenvolveram várias teorias sobre a natureza da luz (sendo a do último muito semelhante à teoria do éter, do século XIX). A propagação rectilínea da luz era conhecida, tal como o era a lei da reflexão. Foi enunciada por Euclides (300 a.C.) no seu livro Catoptrics. Herão de Alexandria tentou explicar estes dois fenómenos, afirmando que a luz percorria sempre o caminho mais curto entre dois pontos. A quebra aparente de objectos parcialmente imersos em água é mencionada por Platão na República. A refracção foi estudada por Cleomedes (em 50 d.C.) e, mais tarde, por Cláudio Ptolomeu (em 30 d.C.), de Alexandria, que construiu tabelas com medidas de ângulos de incidência e de refracção em vários meios.
Depois da queda do Império Romano do Ocidente (475 d.C.), que marca o início da Idade Média, o progresso científico na Europa fez-se durante algum tempo muito lentamente. O centro da cultura deslocou-se para o mundo árabe, onde foram preservados os tesouros científicos e filosóficos do passado. A óptica desenvolveu-se, em vez de ficar intacta mas adormecida, como aconteceu a uma parte da ciência de então. De facto, Alhazem (em 1000 d.C.) aperfeiçoou a lei da reflexão, estabelecendo que as direcções de incidência e reflexão se encontram no mesmo plano normal à superfície reflectora, estudou espelhos esféricos e parabólicos e fez uma descrição detalhada do olho humano.
No fim do século XIII, a Europa começou a sair do seu trono intelectual. O trabalho de Alhazem foi traduzido para o latim e teve grande influência nos escritos de Robert Grosseteste (1175-1253), bispo de Lincoln, e do matemático polaco Vitello (ou Witelo). Os seus trabalhos foram dados a conhecer ao franciscano Roger Bacon (1215-1229), que pode ser considerado o primeiro cientista, no sentido moderno da palavra. Bacon sugeriu a utilização de lentes para compensar os defeitos visuais e lançou a ideia da combinação de lentes para construir um telescópio.
Este modesto conjunto de acontecimentos preenche, na sua maior parte, o que pode ser considerado como o primeiro período da óptica. O turbilhão de resultados e de novidades ficaria reservado para mais tarde, no século XVII.
2. Os séculos XVII e XVIII
Não se conhece exactamente o inventor do telescópio dióptrico; nos arquivos da cidade de Haia, está registado um pedido de patente para um tal telescópio, com a data de 2 de Outubro de 1608, feito por um fabricante de óculos holandês chamado Hans Lippershey (1587-1619). Galileu Galilei (1564-1642), em Pádua, ouviu falar nesta invenção e, em alguns meses, construiu o seu próprio aparelho, polindo ele mesmo as lentes à mão. O microscópio composto foi inventado na mesma altura pelo holandês Zacharias Janssen (1588-1632). Em 1611, Kepler publicou a Dioptrics. Tinha descoberto a reflexão interna total e obtido a aproximação para pequenos ângulos da lei da refracção, no quadro da qual os ângulos de incidência e de refracção são proporcionais. Willebrord Snell (1591-1626), professor em Leyden, descobriu experimentalmente, em 1621, a lei da refracção há tanto procurada. Ao compreender exactamente como é que os raios de luz são deflectidos ao atravessar a fronteira entre dois meios, isto é, um dioptro, Snell abriu a porta para a óptica aplicada contemporânea. René Descartes (1596-1650) publicou pela primeira vez a formulação da lei da refracção usando senos, hoje tão familiar.
Pierre de Fermat (1601-1665), ignorando os pressupostos de Descartes, deduziu também a lei da reflexão, com base no seu princípio do tempo mínimo (1657). Partindo do princípio de Herão, do percurso mínimo, afirmou que a luz, ao propagar-se de um ponto para outro, escolhe o caminho para o qual o tempo de percurso é mínimo mesmo que, para tal, se tenha de desviar relativamente ao caminho mais curto.
A difracção, isto é, o desvio relativamente à direcção de propagação rectilínea que ocorre quando a luz se propaga para além de um obstáculo, foi observada pela primeira vez por Francesco Maria Grimaldi (1618-1663), no colégio dos Jesuítas, em Bolonha. Robert Hooke (1635-1703), experimentalista na Royal Society, em Londres, observou também fenómenos de difracção. Hooke foi o primeiro a estudar os padrões de interferência coloridos gerados por películas delgadas (Micrographia, 1665); concluiu correctamente que estes eram devidos à interacção entre a luz reflectida nas superfícies frontal e posterior do filme e propôs que a luz fosse considerada associada a um rápido movimento oscilatório do meio, propagando-se a grande velocidade. Esta foi a primeira pedra da teoria ondulatória da luz.
Isaac Newton (1642-1727) nasceu pouco menos de um ano após a morte de Galileu. Manteve-se ambivalente durante muito tempo relativamente à verdadeira natureza da luz. Seria a luz de natureza corpuscular, constituída por fluxo de partículas, como alguns defendiam? Seria a luz uma onda num meio omnipresente, o éter? Newton concluiu que a luz branca devia ser composta por uma mistura de toda uma gama de cores independentes. Defendeu que os corpúsculos de luz associados às várias cores geravam no éter vibrações características. Apesar do seu trabalho revelar uma curiosa propensão para, simultaneamente, abarcar as teorias ondulatória e corpuscular (de emissão), Newton tornou-se progressivamente adepto desta última. A razão principal para rejeitar a teoria ondulatória era, conforme afirmou então, o problema da propagação rectilínea da luz, inexplicável com base em ondas que se propagam em todas as direcções.
Enquanto Sir Isaac Newton defendia em Inglaterra a teoria da emissão, Christian Huygens (1629-1695), no continente europeu, difundia largamente a teoria ondulatória. Ao contrário de Descartes, Hooke e Newton, Huygens concluiu correctamente que a luz, de facto, abrandava ao penetrar em meios mais densos. Foi capaz de explicar as leis da reflexão e da refracção e chegou mesmo a explicar com base na teoria ondulatória a dupla refracção na calcite.
O grande peso da opinião de Newton abafou a teoria ondulatória durante o século XVIII, silenciando todos menos os seus defensores acérrimos.
3. O século XIX
A teoria ondulatória renasceu nas mãos de Thomas Young (1773-1829), um dos principais físicos do século XIX. Em 12 de Novembro de 1801, 1 de Julho de 1802 e 24 de Novembro de 1803, Young apresentou comunicações à Royal Society defendendo a teoria ondulatória e incorporando-lhe um novo conceito fundamental, o chamado princípio das interferências. Young conseguiu explicar as franjas coloridas de películas delgadas e determinou os comprimentos de onda de várias cores utilizando os dados de Newton. À sombra da pressuposta infalibilidade de Newton, os ingleses não estavam ainda preparados para aceitar o discernimento de Young e este acabou por desanimar.
Augustin Jean Fresnel (1788-1827) nasceu em Broglie, na Normandia, França, e iniciou os seus trabalhos sobre a teoria ondulatória sem conhecer os esforços de Young cerca de 13 anos antes. Fresnel unificou os conceitos inerentes à descrição ondulatória de Huygens e ao princípio das interferências. Quando deu conta dos trabalhos anteriores de Young relativos ao princípio das interferências, foi um Fresnel algo desapontado que escreveu a Young, dizendo-se consolado por se encontrar em tão boa companhia. E os dois grandes homens tornaram-se aliados. Fresnel desenvolveu uma descrição mecanicista das oscilações do éter, trabalho que culminou nas suas famosas equações para a amplitude da luz reflectida e transmitida. Por volta de 1825, a teoria corpuscular tinha já muito poucos defensores acérrimos.
O estudo da electricidade e do magnetismo estava a ser feito em paralelo com o da óptica. James Clerk Maxwell (1831-1879) agregou brilhantemente todos os conhecimentos experimentais acumulados sobre os fenómenos eléctricos e magnéticos num conjunto único de equações matemáticas. Com base nesta notável síntese sucinta e simétrica, Maxwell foi capaz de mostrar teoricamente que o campo electromagnético se podia propagar como uma onda transversal no éter e obteve a velocidade de propagação dessa onda em função de propriedades eléctricas e magnéticas do meio. Utilizando valores conhecidos, determinados empiricamente, chegou a um resultado igual ao determinado experimentalmente para a velocidade da luz! A conclusão era inequívoca - a luz é "uma perturbação electromagnética que, sob a forma de ondas, se propaga através do éter".
A teoria ondulatória da luz parecia exigir a aceitação da existência de um substracto que tudo penetrava: o éter. Parecia óbvio que as ondas só se podiam propagar num meio de suporte. Assim, e naturalmente, muito do esforço científico foi orientado para determinar a natureza física desse éter.
4. A óptica no século XX
Após experiências infrutíferas quanto à confirmação da existência do éter, a luz foi encarada como uma onda que existia por si própria e a ênfase conceptual passou do éter para o campo. A onda electromagnética tornou-se uma entidade própria.
Em 1905, com base na hipótese de Planck, Einstein propôs uma nova teoria corpuscular, segundo a qual a luz seria constituída por glóbulos ou "partículas" de energia. No final dos anos vinte, devido aos esforços de Bohr, Born, Heisenberg, Schrödinger, De Broglie, Pauli, Dirac e outros, a mecânica quântica transformou-se numa teoria bem fundamentada e tornou-se gradualmente evidente que os conceitos de onda e partícula, que no mundo macroscópico se parecem excluir mutuamente, deviam ser fundidos no domínio submicroscópico. Descobriu-se que as "partículas" podiam dar origem a padrões de interferência e difracção, exactamente como a luz.
O florescimento da óptica, na segunda metade do século XX, representa um verdadeiro renascimento. O computador veio melhorar significativamente o desenho de sistemas ópticos complexos. As fibras ópticas evoluíram e têm aplicações operacionais; existem já guias de ondas em dieléctricos. O domínio do infravermelho no espectro da luz tem sido amplamente utilizado em sistemas de vigilância, condução de mísseis, etc, o que, por sua vez, estimulou o desenvolvimento de novos materiais para o infravermelho. Os plásticos começaram a ser utilizados em óptica (lentes, reprodução de redes, fibras, elementos asféricos, etc). Desenvolveu-se uma nova classe de cerâmicas parcialmente vitrificadas, com coeficientes de expansão térmica muito reduzidos. O primeiro laser foi construído em 1960; numa década apenas, os lasers cobriram uma parte do espectro, do infravermelho ao ultra-violeta. A técnica de reconstrução de frentes de onda, conhecida por holografia, produz imagens tridimensionais magníficas. Têm sido desenvolvidas descobertas numerosas aplicações adicionais (ensaios não destrutivos, arquivo, etc).
Considerações económicas associadas à necessidade de melhorar a qualidade de vida têm, mais do que nunca, levado os produtos da óptica até ao consumidor. Os lasers são hoje utilizados em tudo: na leitura de discos compactos, no corte de aço, na impressão de jornais, na leitura de códigos de barras em supermercados, na cirurgia dos hospitais, etc. Uma revolução de vasto alcance no modo de processar e transmitir informação está a surgir discretamente, uma revolução que alterará significativamente a vida de todos nós, nos próximos anos.
Os conhecimentos profundos não são fáceis de obter. Pouco se aprendeu nos últimos três mil anos embora o ritmo de aprendizagem seja cada vez mais rápido. É maravilhoso, de facto, assistir a mudanças subtis da resposta à pergunta que permanece imutável: o que é a luz?
Eugene Hecht, ÓPTICA, Fundação Calouste Gulbenkian, Lisboa, 1991 (colagem de extractos do capítulo 1, por vezes ligeiramente adaptados)

domingo, 18 de setembro de 2011

TRABALHO EXTRA SOBRE ENERGIA NUCLEAR

Cliquem no link para baixar a apostila sobre Energia Nuclear para o trabalho extra:

ACELERADORES DE PARTÍCULAS


O que são aceleradores de partículas e como funcionam?

Existem, no que se refere à forma, dois tipos de aceleradores: lineares e circulares. Nos aceleradores lineares, também chamados de linacs, o feixe de partículas praticamente percorre uma trajetória retilínea de uma extremidade a outra do acelerador.

Já nos aceleradores circulares, também chamados de cíclotrons, o feixe de partículas percorre trajetórias circulares por várias vezes antes de colidir com o alvo. Em cada volta, as partículas são mais aceleradas, devido à presença de campos elétricos que dão novos impulsos às partículas. Nesse caso, ímãs gigantes são utilizados para manter o feixe de partículas em sua trajetória circular.

É importante lembrar que partículas carregadas em movimento estão associadas a um campo magnético ao seu redor e se tornam um ímã. Outros ímãs gigantes, estrategicamente colocados ao longo do acelerador circular, interagem com o campo das partículas carregadas, alterando sua trajetória.

Esses ímãs gigantes representam a força constante em direção ao centro do círculo, força essa que mantém o feixe de partículas em trajetória circular, sem aumentar ou diminuir a energia das partículas que compõem o feixe.

Nos aceleradores de partículas cria-se uma situação de vácuo de alta precisão, para evitar que as partículas carregadas colidam com outros tipos de partículas ou pedaços de matéria.

Comparações

Comparando-se os dois tipos de aceleradores, temos que os circulares são bem mais eficientes, pois, a cada volta, as partículas recebem novos impulsos, aumentando a sua energia, o que permite que os pesquisadores consigam partículas com energias altíssimas antes das colisões.

Outra vantagem dos aceleradores circulares é a de que não precisam ser muito compridos para atingir as altas energias, já que o feixe de partículas dá várias voltas. Esse número de voltas também aumenta a chance de colisões entre partículas que se cruzam.

Com relação aos aceleradores lineares, são bem mais fáceis de construir, pois não necessitam de ímãs potentes para manter a trajetória circular (como no caso dos aceleradores circulares) do feixe de partículas, já que elas percorrerão uma trajetória retilínea.

Os aceleradores circulares também precisam de um grande raio para que as partículas atinjam as energias necessárias, o que torna seu custo bem maior do que o de um linear.

Outro aspecto importante considerado pelos pesquisadores é que partículas carregadas irradiam energia quando aceleradas - e quando trabalhamos com altas energias a radiação perdida é maior para acelerações circulares.

Esses são alguns aspectos importantes, que devem ser considerados por pesquisadores e financiadores de pesquisas antes da construção de um acelerador de partículas.

Primeiro acelerador

Podemos dizer que o predecessor dos aceleradores circulares foi o cíclotron construído, em 1929, por Ernest Lawrence, ganhador do prêmio Nobel em 1939. No cíclotron temos uma geometria circular dividida ao meio, onde prótons são injetados em sua parte central e, graças à mudança de polaridade do campo elétrico existente entre as duas metades, são acelerados e vão percorrendo órbitas maiores até deixarem o acelerador.

As órbitas circulares são possíveis graças à presença de um campo magnético uniforme, disposto perpendicularmente à base. Aqui energias da ordem de 106eV (1 Gev) são atingidas.

Esses princípios básicos foram de extrema importância para o desenvolvimento dos aceleradores circulares.

Superacelerador

O ano de 2008 representa um grande avanço na área da física de partículas, pois marca o início das pesquisas com um superacelerador de partículas que representa o maior empreendimento científico e tecnológico da atualidade.

Denominado LHC (Large Hadron Collider - Grande Colisor de Hádrons), com 27 km de circunferência, construído a 100 metros de profundidade e atingindo áreas da França e da Suíça, esse acelerador fará partículas nucleares (prótons, que são hádrons formados por dois quarks up e um down - uud) se chocarem com altíssimas energias.

Durante as colisões são esperadas energias em torno de TeV (trilhões de elétrons - volt). Comparem com a energia obtida com o cíclotron de Ernest Lawrence e vejam o avanço obtido!

O LHC está abrigado no CERN (Conseil Européen pour La Recherche Nucléaire - Conselho Europeu para Pesquisas Nucleares), hoje denominado European Laboratory for Particle Physics - Laboratório Europeu para Física de Partículas.

Como funciona um acelerador de partículas?

No século 20, uma quantidade enorme de novas partículas foram descobertas e a ideia sobre quais seriam as partículas elementares - as constituintes básicas da matéria, que não são formadas por nenhuma outra partícula - mudou.

Podemos dizer que a década de 1950 marca o surgimento da física de partículas como um novo ramo da física. E, junto com ele, um modelo para explicar essa nova gama de partículas e suas interações, conhecido como Modelo Padrão (Standard).

Para estudar essas pequenas partículas e suas interações, ou seja, para estudar a matéria em seu interior, os pesquisadores precisaram criar, artificialmente, condições em que as partículas se manifestassem com altíssimas energias. Para cumprir essa finalidade desenvolveram-se, aceleradores potentes, capazes de detectar antipartículas, como os antiprótons (em 1955) e os antinêutrons (1956).

Apenas para efeito de comparação, uma tomada comum pode resultar num choque de uma centena (102) de elétron-volt (eV), enquanto as altíssimas energias das partículas deveriam ser da ordem de 109 (o número um seguido de nove zeros!) a 1012 (o número um seguido de doze zeros!). Para tanto, foram desenvolvidos os aceleradores de partículas.

(Observação: um elétron-volt (eV) representa a energia que um elétron adquire ao ser acelerado por uma ddp (diferença de potencial) de 1 V. É uma unidade de energia comumente utilizada em física nuclear. 1 eV corresponde a 1,6 . 10-19 J).

O átomo de hidrogênio possui um próton (carga positiva)
no núcleo e um elétron (carga negativa) orbitando ao
redor desse núcleo, conforme o modelo atômico de Bohr
Funcionamento

O acelerador provoca um aumento de velocidade em uma partícula carregada por meio de campos eletromagnéticos - e essa partícula é atirada contra um ponto específico, onde existem detectores que registram o evento.

Dois conceitos físicos estão presentes aqui: o aumento de velocidade da partícula carregada, sua aceleração, ocorre devido à presença de um campo elétrico, sendo que a mudança de trajetória (quando é curvada) resulta da ação de um campo magnético.

Um exemplo simples de acelerador de partículas é a televisão, onde elétrons são liberados, acelerados por um campo elétrico e colimados por um campo magnético, atingindo a tela e formando a imagem.

Os aceleradores de partículas têm como princípio de funcionamento uma fonte de íons, geralmente obtida ionizando-se átomos de hidrogênio, constituídos por um próton em seu núcleo, juntamente com um nêutron e um elétron orbitando ao seu redor.

Para obter a fonte de íons os pesquisadores podem utilizar:
  • Elétrons: por meio do aquecimento de um metal ou por uma descarga elétrica, permitindo que a energia de ligação (entre o próton e elétron) seja vencida e resultando na separação dos elétrons. É o que ocorre na televisão, onde os elétrons são liberados pelo aquecimento de um filamento - e também no chamado tubo de raios catódicos. Assim, conseguem-se muitos elétrons separados, que podem ser direcionados pela ação de campos elétricos e magnéticos, resultando em feixes de partículas.
  • Prótons: obtidos pela ionização do hidrogênio, através do mesmo processo citado anteriormente. Afinal, se o elétron é separado do hidrogênio, ficamos com o próton também separado.
  • Antipartículas: obtidas quando partículas com altíssimas energias colidem com um alvo. Na colisão são criados pares de partículas e antipartículas por meio da troca de fótons ou glúons. Esses pares são separados com a utilização de campos magnéticos.
O átomo de hidrogênio possui um próton (carga positiva) no núcleo e um elétron (carga negativa) orbitando ao redor desse núcleo, conforme o modelo atômico de Bohr.

Aceleração e colisão

O feixe de partículas produzido é utilizado no acelerador, onde campos elétricos atraem ou repelem essas partículas carregadas, produzindo uma aceleração.

O sentido e a direção dessas partículas são controlados por meio de campos magnéticos associados a ímãs gigantes colocados ao longo do acelerador. Esses campos magnéticos têm que ser mais intensos à medida que a velocidade da partícula aumenta, pois, com a aceleração, essas partículas aumentam também a sua energia cinética, tornando-se mais difícil mudar sua trajetória. Com uma energia bem maior, o feixe de partículas colide com um alvo, onde detectores vão colher informações de acordo com o interesse dos pesquisadores.

Essas colisões podem ocorrer da seguinte maneira:
  • Alvo fixo - o feixe de partículas, após obter uma grande quantidade de energia no acelerador, colide com um alvo imóvel.
  • Alvo móvel - são utilizados dois feixes de partículas em sentidos contrários que se cruzarão. Consequentemente, algumas partículas irão colidir.

quinta-feira, 25 de agosto de 2011

ONDAS

 

ONDAS ELETROMAGNÉTICAS


INTRODUÇÃO

É importante tomarmos consciência de como estamos imersos em ondas eletromagnéticas. Iniciando pelo Sol, a maior e mais importante fonte para os seres terrestres, cuja vida depende do calor e da luz recebidos através de ondas eletromagnéticas.
Além de outras, recebemos também: a radiação eletromagnética emitida, por átomos de hidrogênio neutro que povoam o espaço interestelar da nossa galáxia; as emissões na faixa de radiofreqüências dos "quasares" (objetos ópticos que se encontram a enormes distâncias de nós, muito além de nossa galáxia, e que produzem enorme quantidade de energia); pulsos intensos de radiação dos "pulsares" (estrelas pequenas cuja densidade média é em torno de 10 trilhões de vezes a densidade média do Sol).


Essas radiações são tão importantes que deram origem a uma nova ciência, a Radioastronomia, que se preocupa em captar e analisar essas informações obtidas do espaço através de ondas.

Há ainda as fontes terrestres de radiação eletromagnética: as estações de rádio e de TV, o sistema de telecomunicações à base de microondas, lâmpadas artificiais, corpos aquecidos e muitas outras.
A primeira previsão da existência de ondas eletromagnéticas foi feita, em 1864, pelo físico escocês, James Clerk Maxwell . Ele conseguiu provar teoricamente que uma perturbação eletromagnética devia se propagar no vácuo com uma velocidade igual à da luz.E a primeira verificação experimental foi feita por Henrich Hertz, em 1887. Hertz produziu ondas eletromagnéticas por meio de circuitos oscilantes e, depois, detectou-se por meio de outros circuitos sintonizados na mesma freqüência. Seu trabalho foi homenageado posteriormente colocando-se o nome"Hertz" para unidade de freqüência.

ESPECTRO ELETROMAGNÉTICO

A palavra espectro (do latim "spectrum", que significa fantasma ou aparição) foi usada por Isaac Newton, no século XVII, para descrever a faixa de cores que apareceu quando numa experiência a luz do Sol atravessou um prisma de vidro em sua trajetória.
Atualmente chama-se espectro eletromagnético à faixa de freqüências e respectivos comprimentos de ondas que caracterizam os diversos tipos de ondas eletromagnéticas.
As ondas eletromagnéticas no vácuo têm a mesma velocidade , modificando a freqüência de acordo com espécie e, conseqüentemente, o comprimento de onda.
Fisicamente, não há intervalos no espectro. Podemos ter ondas de qualquer freqüências que são idênticas na sua natureza, diferenciando no modo como podemos captá-las.
Observe que algumas freqüências de TV podem coincidir com a freqüência de FM. Isso permite algumas vezes captar uma rádio FM na televisão ou captar um canal de TV num aparelho de rádio FM.

CARACTERÍSTICAS DAS PRINCIPAIS RADIAÇÕES

Ondas de Rádio

"Ondas de rádio" é a denominação dada às ondas desde freqüências muito pequenas, até 1012 Hz , acima da qual estão os raios infravermelhos.
As ondas de rádio são geradas por osciladores eletrônicos instalados geralmente em um lugar alto, para atingir uma maior região. Logo o nome "ondas de rádio" inclui as microondas, as ondas de TV, as ondas curtas, as ondas longas e as próprias bandas de AM e FM.Ondas de rádio propriamente ditas:


As ondas de rádio propriamente ditas, que vão de 104 Hz a 107 Hz , têm comprimento de onda grande, o que permite que elas sejam refletidas pelas camadas ionizadas da atmosfera superior (ionosfera).
Estas ondas, além disso, têm a capacidade de contornar obstáculos como árvores, edifícios, de modo que é relativamente fácil captá-las num aparelho rádio-receptor.

Ondas de TV

As emissões de TV são feitas a partir de 5x107 Hz (50 MHz) . É costume classificar as ondas de TV em bandas de freqüência (faixa de freqüência), que são:

VHF : very high frequency (54 MHz à 216 MHZ è canal 2 à 13)
UHF : ultra-high frequency (470 MHz à 890 MHz è canal 14 à 83)
SHF : super-high frequency
EHF : extremely high frequency
VHFI : veri high frequency indeed

As ondas de TV não são refletidas pela ionosfera, de modo que para estas ondas serem captadas a distâncias superiores a 75 Km é necessário o uso de estações repetidoras.

Microondas


Microondas correspondem à faixa de mais alta freqüência produzida por osciladores eletrônicos. Freqüências mais altas que as microondas só as produzidas por oscilações moleculares e atômicas.
As microondas são muito utilizadas em telecomunicações. As ligações de telefone e programas de TV recebidos "via satélite" de outros países são feitas com o emprego de microondas.
As microondas também podem ser utilizadas para funcionamento de um radar. Uma fonte emite uma radiação que atinge um objeto e volta para o ponto onde a onda foi emitida. De acordo com a direção em que a radiação volta pode ser descoberta a localização do objeto que refletiu a onda.



Luz visível



A luz (A) é formada pela união de várias cores: vermelho, laranja, amarelo, verde, azul, anil e violeta. É por isso que um prisma pode receber luz branca de um lado e produzir seu próprio mini-arco-íris do outro. Um prisma (B) é uma peça triangular de vidro ou plástico. Para produzir um pequeno arco-íris, deixe um feixe de luz estreito atingir um lado do triângulo.
A dispersão de cores em um prisma acontece por causa do índice de refração do vidro. Todo material tem um índice de refração diferente. Quando a luz entra em um material (por exemplo, quando a luz que viaja pelo ar entra no vidro de um prisma), a diferença entre o índice refrativo do ar e do vidro faz que a luz se curve. O ângulo de curvatura é diferente para os diversos comprimentos de onda da luz. Quando a luz branca se move através das duas faces do prisma, as diversas cores, com seus comprimentos diferentes, se dividem, formando um arco-íris.


Em um arco-íris, as gotas de chuva no ar agem como pequenos prismas. A luz entra na gota de chuva, reflete do outro lado da gota e sai. Durante o processo, ela é dividida em um espectro assim como acontece em um prisma triangular de vidro, desta forma:
O ângulo entre o raio de luz que entra nas gotas e o que sai delas é de 42º para o vermelho e de 40º para o violeta. Da próxima vez que encontrar um arco-íris, você irá observá-lo com outros olhos. Para obter mais informações, confira Como funciona o arco-íris em http://ciencia.hsw.uol.com.br/arco-iris2.htm. fonte:(http://ciencia.hsw.uol.com.br/questao41.htm)

Nosso olho só tem condições de perceber freqüências que vão de 4,3x1014 Hz a 7x1014 , faixa indicada pelo espectro como luz visível.
Nosso olho percebe a freqüência de 4,3x1014 como a cor vermelha. Freqüências abaixo desta não são visíveis e são chamados de raios infravermelhos , que têm algumas aplicações práticas.
A freqüência de 7x1014 é vista pelo olho como cor violeta. Freqüências acima desta também não são visíveis e recebem o nome de raios ultravioleta. Têm também algumas aplicações.
A faixa correspondente à luz visível pode ser subdividida de acordo com o espectro do esquema.
Raios XOs raios X foram descobertos, em 1895, pelo físico alemão Wilhelm Röntgen. Os raios X têm freqüência alta e possuem muita energia. São capazes de atravessar muitas substâncias embora sejam detidos por outras, principalmente pelo chumbo.
Esses raios são produzidos sempre que um feixe de elétrons dotados de energia incidem sobre um obstáculo material. A energia cinética do feixe incidente é parcialmente transformada em energia eletromagnética, dando origem aos raios X.
Os raios X são capazes de impressionar uma chapa fotográfica e são muito utilizados em radiografias, já que conseguem atravessar a pele e os músculos da pessoa, mas são retidos pelos ossos.
Os raios X são também bastante utilizados no tratamento de doenças como o câncer. Têm ainda outras aplicações: na pesquisa da estrutura da matéria, em Química, em Mineralogia e outros ramos.

Raios GamaAs ondas eletromagnéticas com freqüência acima da dos raios X recebe o nome de raios gama (g ).
Os raios gama são produzidos por desintegração natural ou artificial de elementos radioativos.
Um material radioativo pode emitir raios gama durante muito tempo, até atingir uma forma mais estável.
Raios gama de alta energia podem ser observados também nos raios cósmicos que atingem a alta atmosfera terrestre em grande quantidade por segundo.
Os raios gama podem causar graves danos às células, de modo que os cientistas que trabalham em laboratório de radiação devem desenvolver métodos especiais de detecção e proteção contra doses excessivas desses raios.

quarta-feira, 1 de junho de 2011

MATERIAL COMPLEMENTAR

Material de Física Térmica para download já disponível


Para baixar clique NOS LINKS ABAIXO:

http://www.4shared.com/document/4LE7yobD/FISICA_TERMICA_1.html
http://www.4shared.com/document/3Jp5PQqH/FISICA_TERMICA_2.html
http://www.4shared.com/document/jsSp1rwu/FISICA_TERMICA_3.html
http://www.4shared.com/document/DJaO6ASL/FISICA_TERMICA_4.html
http://www.4shared.com/document/zHKbPZsX/FisicaTermica_GERAL.html
http://www.4shared.com/document/5JRfRXZr/lista_termica_21.html
http://www.4shared.com/document/YZAjFT0o/lista_termica_22.html
http://www.4shared.com/document/DMpgS6dI/lista_23-termod.html
   



BONS ESTUDOS E DIVIRTAM-SE!!!

TRANSFERÊNCIA DE CALOR

RADIAÇÃO TERRESTRE
 
        Quando a atmosfera absorve radiação terrestre ela se aquece e eventualmente irradia esta energia, para cima e para baixo, onde é novamente absorvida pela Terra. Portanto, a superfície da Terra é continuamente suprida com radiação da atmosfera e do Sol. Esta energia será novamente emitida pela superfície da Terra e uma parte retornará à atmosfera que, por sua vez, reirradiará uma parte para a Terra e assim por diante. Este jogo entre a superfície da Terra e a atmosfera torna a temperatura média da Terra ~ 35° C mais alta do que seria. Sem os gases absorvedores da nossa atmosfera, a Terra não seria adequada para a vida humana e muitas outras formas de vida.
 
        Este fenômeno extremamente importante tem sido denominado efeito estufa, porque pensava-se que as estufas fossem aquecidas da mesma forma. O vidro em uma estufa permite a entrada de radiação de onda curta, que é absorvida pelos objetos no interior. Estes objetos reirradiam, mas em ondas longas, para as quais o vidro é quase opaco. O calor, portanto, é retido na estufa. A retenção da radiação infravermelha pelo vidro, contudo, é apenas parte da razão pela qual uma estufa retém calor interno. Já foi demonstrado que as estufas atingem altas temperaturas porque o vidro protege do vento, restringindo as perdas de calor por convecção e advecção (ver próxima seção).
 
        A importância do vapor d'água e dióxido de carbono em manter a atmosfera aquecida é bem conhecida em regiões montanhosas. Topos de montanhas recebem mais radiação que os vales durante o dia, porque há menos atmosfera a atravessar. A noite, porém, a atmosfera menos densa também permite maior perda de calor. Este fator mais que compensa a radiação extra recebida e, como resultado, os vales permanecem mais quentes que as montanhas adjacentes, mesmo recebendo menos radiação.
 
        As nuvens, assim como o vapor d'água e o CO2, são bons absorvedores de radiação infravermelha (terrestre) e tem papel importante em manter a superfície da Terra aquecida, especialmente à noite. Uma grossa camada de nuvens pode absorver a maior parte da radiação terrestre e reirradiá-la de volta. Isto explica porque em noites secas e claras a superfície se resfria bem mais que em noites úmidas ou com nuvens. Mesmo uma cobertura fina, através da qual a lua é visível, pode elevar a temperatura noturna em torno de 5 ° C.

 MECANISMOS DE TRANSFERÊNCIA DE CALOR
 
        Há três mecanismos conhecidos para transferência de calor: radiação, condução e convecção (Fig. 2.13).
        Como vimos, a radiação consiste de ondas eletromagnéticas viajando com a velocidade da luz. Como a radiação é a única que pode ocorrer no espaço vazio, esta é a principal forma pela qual o sistema Terra-Atmosfera recebe energia do Sol e libera energia para o espaço.
        A condução ocorre dentro de uma substância ou entre substâncias que estão em contato físico direto. Na condução a energia cinética dos átomos e moléculas (isto é, o calor) é transferida por colisões entre átomos e moléculas vizinhas. O calor flui das temperaturas mais altas (moléculas com maior energia cinética) para as temperaturas mais baixas (moléculas com menor energia cinética). A capacidade das substâncias para conduzir calor (condutividade) varia consideravelmente. Via de regra, sólidos são melhores condutores que líquidos e líquidos são melhores condutores que gases. Num extremo, metais são excelentes condutores de calor e no outro extremo, o ar é um péssimo condutor de calor. Conseqüentemente, a condução só é importante entre a superfície da Terra e o ar diretamente em contato com a superfície. Como meio de transferência de calor para a atmosfera como um todo a condução é o menos significativo e pode ser omitido na maioria dos fenômenos meteorológicos.
        A convecção somente ocorre em líquidos e gases. Consiste na transferência de calor dentro de um fluído através de movimentos do próprio fluído. O calor ganho na camada mais baixa da atmosfera através de radiação ou condução é mais freqüentemente transferido por convecção. A convecção ocorre como conseqüência de diferenças na densidade do ar. Quando o calor é conduzido da superfície relativamente quente para o ar sobrejacente, este ar torna-se mais quente que o ar vizinho. Ar quente é menos denso que o ar frio de modo que o ar frio e denso desce e força o ar mais quente e menos denso a subir. O ar mais frio é então aquecido pela superfície e o processo é repetido.
        Desta forma, a circulação convectiva do ar transporta calor verticalmente da superfície da Terra para a troposfera, sendo responsável pela redistribuição de calor das regiões equatoriais para os pólos. O calor é também transportado horizontalmente na atmosfera, por movimentos convectivos horizontais, conhecidos por advecção. O termo convecção é usualmente restrito à transferência vertical de calor na atmosfera.

 Fig. 2.13 - Mecanismos de Transferência de Calor

        Na atmosfera, o aquecimento envolve os três processos, radiação, condução e convecção, que ocorrem simultaneamente. O calor transportado pelos processos combinados de condução e convecção é denominado calor sensível.

BALANÇO GLOBAL DE CALOR
 
        Existe um balanço quase perfeito entre a quantidade de radiação solar incidente e a quantidade de radiação terrestre (sistema Terra-atmosfera) retornada para o espaço; caso contrário, o sistema Terra-atmosfera estaria progressivamente se aquecendo ou resfriando. Vamos examinar este balanço na Fig. 2.14, usando 100 unidades para representar a radiação solar interceptada no topo da atmosfera. 

 Fig. 2.14 - Balanço de Calor da Terra e atmosfera

        Da radiação total interceptada pela Terra (sistema Terra-atmosfera), aproximadamente 30 unidades são refletidas de volta para o espaço. As restantes 70 unidades são absorvidas, 19 unidades pela atmosfera e 51 unidades pela superfície da Terra (Terra-oceano). Se toda a energia absorvida pela Terra fosse reirradiada diretamente para o espaço, o balanço de calor da Terra seria muito simples. Contudo, conforme vimos anteriormente, certos gases na atmosfera atuam no sentido de retardar a perda de radiação terrestre, absorvendo uma boa parte dela e reirradiando grande parte desta energia de volta para a Terra. Como resultado deste processo, a superfície da Terra recebe uma grande quantidade de radiação de onda longa da atmosfera (95 unidades). (A atmosfera na realidade emite mais energia que a quantidade de energia solar absorvida pela Terra, devido ao efeito estufa) A superfície da Terra, por sua vez, irradia 116 unidades de energia de onda longa para a atmosfera. Portanto, nesta troca (em onda longa) a atmosfera tem um ganho líquido de 15 unidades, enquanto a Terra tem uma perda líquida de 21 unidades. As restantes 6 unidades passam diretamente através da atmosfera e são perdidas no espaço. A radiação entre 8 micra a 11 micra escapa mais facilmente porque o vapor d'água e o dióxido de carbono não absorvem estes comprimentos de onda (ver Fig. 2.11).
 
        Até agora contamos uma perda de 21 das 51 unidades de radiação de onda curta absorvidas pela superfície da Terra. E as 30 unidades restantes? Parte desta energia é transferida da superfície da Terra para a atmosfera através de calor latente, por moléculas de água durante o processo de evaporação (23 unidades). O calor latente refere-se à quantidade de calor envolvida em mudanças de fase da água. Por exemplo, a mudança da água líquida para vapor exige fornecimento de calor latente, enquanto a transformação de vapor para líquido libera calor latente. Outra parte das 30 unidades é transferida da superfície da Terra para a atmosfera por calor sensível (condução e convecção -7 unidades).
 
        Um balanço geral é obtido porque a atmosfera emite 64 unidades de energia para o espaço como radiação de onda longa, fechando o balanço entre radiação incidente e radiação emitida.

sexta-feira, 15 de abril de 2011

As Forças que Atuam na Natureza

As Leis de Newton para o movimento dos corpos

 No nosso dia-a-dia sempre vemos em volta corpos em movimento. Observando o céu notamos que os corpos celestes também se movem. Embora as estrelas pareçam estar fixas na esfera celeste , a Lua e os planetas demonstram muito evidentemente que os objetos celestes se deslocam no espaço. E as mesmas leis que regem o movimento dos corpos sobre o nosso planeta também conseguem descrever o movimento dos corpos celestes. Estas leis básicas do movimento, na verdade apenas três leis, foram descobertas pelo físico inglês Isaac Newton.
 
 Primeira Lei de Newton

 Esta lei, também chamada de Lei da Inércia, nos fala sobre a ação que deve ser feita para manter um corpo em movimento.

"Um corpo permanece em repouso ou em movimento retilíneo uniforme a menos que haja uma influência externa, ou seja uma força, atuando sobre ele."
 
 Assim, se não há nenhuma força agindo:
 
·      -   um corpo em repouso permanecerá em repouso
·       -  um corpo que se move continuará se movendo com a mesma velocidade e na mesma direção

Então , por que quando eu empurro um carro ele anda um pouco e para? Isto ocorre devido à presença de forças, também externas, que atuam sobre o carro no sentido contrário ao seu movimento. Estas forças, chamadas de forças de atrito, são as responsáveis pelo fato do carro parar. Se as forças de atrito não existissem, ao aplicarmos uma força sobre um corpo ele iniciaria um movimento que duraria para sempre (felizmente para nós existe a força de atrito. Você consegue imaginar por que?).

Observações:

·         Veja que a primeira lei de Newton fala de "movimento retilíneo uniforme". A palavra "uniforme" chama a atenção para o fato de que a velocidade do corpo é constante. A palavra "retilíneo" significa obviamente que o corpo não está realizando qualquer curva uma vez que o corpo que segue uma trajetória curva está acelerado ( alguma força atua sobre ele ) .

·         Não confunda velocidade com aceleração. Aceleração é uma variação da velocidade de um corpo em um intervalo de tempo. No entanto, esta variação que dá origem à aceleração tanto pode ser no "valor" da velocidade quanto na "direção" da velocidade.

Segunda Lei de Newton

Esta lei estabelece uma relação entre os conceitos de força, massa e aceleração. Estes três conceitos são fundamentais para a física:

·         - massa: é uma medida da inércia de um corpo. Ela está relacionada com a dificuldade que temos para colocar um corpo em movimento. A massa de um corpo é representada pela letra m.
·         -   força: é a influência externa sobre um corpo. Ela é representada pela letra F.
·         -  aceleração: é uma variação no movimento. Esta variação pode ser de aumento ou diminuição na velocidade de um corpo e/ou de mudança na direção de deslocamento do corpo. Ela é representada pela letra a.

Se considerarmos corpos que se movem com velocidades muito menores que a velocidade da luz, a massa do corpo é constante e a segunda lei de Newton pode então ser escrita como:

F = m . a
 
Observações:

·         Não confunda massa com peso. Massa é uma grandeza fundamental da física. Peso é a ação da gravidade sobre um corpo de massa m. Deste modo, o peso de um corpo na Terra é dado pela massa que ele possui multiplicada pela aceleração da gravidade existente na superfície do nosso planeta (se você quer saber qual seria o seu peso em vários planetas visite a seção "jogos" do nosso site "Pequeno Cientista").

·         O conceito de "força" não está associado apenas a algo externo a um corpo. Também existem forças atuando no interior de todos os corpos.

Terceira Lei de Newton

Também é conhecida como Lei da Ação e Reação.

Quando um corpo A exerce uma força sobre um corpo B, o corpo B exercerá uma força igual e em sentido oposto sobre o corpo A.

FAB = - FBA

Esta terceira lei, na verdade, nos revela como é conservado o momentum de um corpo. Momentum (também chamado de "momentum linear") é definido como o produto da massa do corpo pela sua velocidade. É com base na Terceira Lei de Newton que explicamos porque um foguete consegue voar (tente imaginar como). 

A Força Gravitacional

Ao observarmos o movimento dos corpos celestes vemos que eles não são objetos errantes que seguem trajetórias quaisquer no espaço. Todos eles, sem exceção, percorrem órbitas bem determinadas obedecendo a leis gerais que são válidas em todo o Universo. Isto é importante por nos indicar que os corpos celestes estão sob a ação de forças que os mantêm em suas órbitas. Melhor ainda, sabemos que os objetos na Terra interagem e conhecemos as leis que regem essas interações. Observamos que ao usarmos a primeira lei de Newton e aplicarmos uma força sobre um corpo qualquer, uma pedra por exemplo, atirando-a para cima ela retorna à Terra. Por que isso acontece? Se a única força atuante sobre a pedra fosse o atrito com o ar que forma a nossa atmosfera, a pedra diminuiria a sua velocidade até parar e permaneceria flutuando no ar. No entanto, isso não ocorre. A pedra volta para a superfície da Terra. Uma situação tão simples quanto essa nos mostra que a Terra está exercendo algum tipo de força que atrai a pedra de volta para ela. O mesmo tipo de interação deve ocorrer entre todos os corpos celestes e a ela damos o nome de interação gravitacional.

  A descoberta da lei que nos mostra de que maneira os corpos celestes interagem foi feita por Isaac Newton. Aplicando uma ferramenta matemática que ele havia recentemente desenvolvido, chamada fluctions e que hoje é conhecida como "cálculo diferencial", à órbita da Lua em torno da Terra, Newton foi capaz de determinar que a força da gravidade deve depender do inverso do quadrado da distância entre a Terra e a Lua.

 Ao mesmo tempo , segundo a Terceira Lei de Newton, uma vez que a gravidade é uma força exercida por um corpo sobre outro ela deve atuar de modo recíproco entre as duas massas envolvidas.

 A Teoria da Gravitação de Isaac Newton

Newton deduziu então que:

"A força de atração gravitacional entre dois corpos de massas M e m é diretamente proporcional ao produto de suas massas e inversamente proporcional ao quadrado da distância que os separa".
  
Para transformar a proporcionalidade em igualdade Newton introduziu uma "constante de proporcionalidade" na sua equação. Esta constante de proporcionalidade é a constante de gravitação de Newton, representada pela letra G e que tem o valor

G = 6,67 x 10-11 m3 seg-2 Kg-1


 Desse modo , a lei da gravitação universal nos dá para a força de atração  gravitacional entre a Terra e a Lua a expressão
 
F= G Mm
        d2

onde G é a constante gravitacional, M é a massa da Terra, m é a massa da Lua, e d é a distância entre a Terra e a Lua.
 
Observações:
 
·         A gravidade é a mais fraca entre todas as forças fundamentais. 

·         A gravidade é uma força de longo alcance. Veja, na equação acima, que não há qualquer limite para o valor de d, que é a distância entre os corpos. 

·         A gravidade é uma força somente atrativa. Não existe repulsão gravitacional. 

·         A história de que Newton teria notado a existência da lei da gravitação a partir da queda de uma maçã é, quase certamente, apócrifa.

É por causa dessas características que a gravidade domina várias áreas de estudo na astronomia. É a ação da força gravitacional que determina as órbitas dos planetas, estrelas e galáxias, assim como os ciclos de vida das estrelas e a evolução do próprio Universo, como veremos mais tarde.

A constante gravitacional da equação de Newton

A gravidade é uma força tão fraca que a constante G que aparece na equação da gravitação de Newton não podia ser medida na época em que a equação foi proposta.

O primeiro a estimar o valor de G foi o astrônomo Nevil Maskelyne. Para fazer isto ele procurou usar duas massas bastante diferentes de tal modo que a força gravitacional entre elas pudesse ser medida. Nada melhor do que a massa de uma montanha e a de um pedaço de chumbo preso a uma linha. Certamente a atração gravitacional entre estas duas massas provocaria uma deflexão na linha que sustentava o chumbo. Em 1774, Maskelyne aproximou o seu peso de chumbo das encostas inclinadas do Monte Schiehallion, na Escócia, e mediu a deflexão da linha ou seja, a ação gravitacional entre a montanha e o peso de chumbo. Como o monte Chiehallion tinha uma forma muito regular, Maskelyne foi capaz de estimar sua massa e, como ele conhecia a massa do peso de chumbo, foi possível então determinar o valor da constante gravitacional G.
No entanto, o físico inglês Henry Cavendish foi o primeiro a medir G no laboratório.
 
A ação da gravidade nas nossas vidas

 E de que modo a ação da gravidade se apresenta na nossa vida? O simples fato de você permanecer de pé na superfície da Terra é resultado da existência da força gravitacional. É a ação da gravidade da Terra que faz você permanecer sobre ela. É claro que você tem até uma pequena liberdade pois consegue saltar na vertical mas logo é obrigado a retornar a sua superfície tão logo a Terra sinta "saudades" de você e te traga de volta para pertinho dela. E que outra ação da gravidade nos afeta diretamente? A ação gravitacional entre a Terra e a Lua é uma dessas ações. É ela que produz o conhecido fenômeno das marés. Além disso, como a Lua é um satélite de grande massa, se comparado com os outros satélites do Sistema Solar, a atração gravitacional entre ela e a Terra serve como elemento estabilizador da rotação do nosso planeta em torno do seu eixo. No entanto, a Lua está se afastando da Terra e a mudança desta ação gravitacional, daqui a milhares de anos provocará uma alteração no eixo de rotação da Terra. Esta mudança se refletirá sob a forma de fortes alterações climáticas no nosso planeta.

A gravitação quântica

 Já vimos que a teoria clássica da gravitação é descrita pela lei de Newton da Gravitação Universal. Sua generalização relativística é a teoria da Gravitação de Einstein, também chamada de Teoria da Relatividade Geral de Einstein. Na verdade, a interação gravitacional seria melhor chamada de Geometrodinâmica, termo proposto pelo físico norte-americano John Wheeler, uma vez que a relatividade geral geometriza a gravitação. No entanto, para descrever os estágios iniciais da formação do Universo precisamos de uma teoria quântica da gravitação. Até agora os físicos ainda não possuem uma teoria como essa, apesar dos enormes esforços desenvolvidos para isto. As dificuldades para criar uma teoria quantizada para a gravitação têm sido muito grandes: a matemática envolvida é excepcionalmente sofisticada e os conceitos físicos estão na fronteira do nosso conhecimento e imaginação.