HISTÓRIA DA ÓPTICA
1. O princípio
As origens da tecnologia óptica situam-se na antiguidade remota. No livro do Êxodo, 38:8 (1200 a.C.), conta-se como Bezaleel, na preparação da Arca e do Tabernáculo, utiliza "os espelhos das mulheres" para construir a bacia de bronze (um recipiente sagrado). Os espelhos primitivos eram feitos de cobre polido, bronze, e mais tarde, de espéculo, uma liga de cobre rica em estanho.
Os filósofos gregos Pitágoras, Demócrito, Empédocles, Platão, Aristóteles e outros desenvolveram várias teorias sobre a natureza da luz (sendo a do último muito semelhante à teoria do éter, do século XIX). A propagação rectilínea da luz era conhecida, tal como o era a lei da reflexão. Foi enunciada por Euclides (300 a.C.) no seu livro Catoptrics. Herão de Alexandria tentou explicar estes dois fenómenos, afirmando que a luz percorria sempre o caminho mais curto entre dois pontos. A quebra aparente de objectos parcialmente imersos em água é mencionada por Platão na República. A refracção foi estudada por Cleomedes (em 50 d.C.) e, mais tarde, por Cláudio Ptolomeu (em 30 d.C.), de Alexandria, que construiu tabelas com medidas de ângulos de incidência e de refracção em vários meios.
Depois da queda do Império Romano do Ocidente (475 d.C.), que marca o início da Idade Média, o progresso científico na Europa fez-se durante algum tempo muito lentamente. O centro da cultura deslocou-se para o mundo árabe, onde foram preservados os tesouros científicos e filosóficos do passado. A óptica desenvolveu-se, em vez de ficar intacta mas adormecida, como aconteceu a uma parte da ciência de então. De facto, Alhazem (em 1000 d.C.) aperfeiçoou a lei da reflexão, estabelecendo que as direcções de incidência e reflexão se encontram no mesmo plano normal à superfície reflectora, estudou espelhos esféricos e parabólicos e fez uma descrição detalhada do olho humano.
No fim do século XIII, a Europa começou a sair do seu trono intelectual. O trabalho de Alhazem foi traduzido para o latim e teve grande influência nos escritos de Robert Grosseteste (1175-1253), bispo de Lincoln, e do matemático polaco Vitello (ou Witelo). Os seus trabalhos foram dados a conhecer ao franciscano Roger Bacon (1215-1229), que pode ser considerado o primeiro cientista, no sentido moderno da palavra. Bacon sugeriu a utilização de lentes para compensar os defeitos visuais e lançou a ideia da combinação de lentes para construir um telescópio.
Este modesto conjunto de acontecimentos preenche, na sua maior parte, o que pode ser considerado como o primeiro período da óptica. O turbilhão de resultados e de novidades ficaria reservado para mais tarde, no século XVII.
2. Os séculos XVII e XVIII
Não se conhece exactamente o inventor do telescópio dióptrico; nos arquivos da cidade de Haia, está registado um pedido de patente para um tal telescópio, com a data de 2 de Outubro de 1608, feito por um fabricante de óculos holandês chamado Hans Lippershey (1587-1619). Galileu Galilei (1564-1642), em Pádua, ouviu falar nesta invenção e, em alguns meses, construiu o seu próprio aparelho, polindo ele mesmo as lentes à mão. O microscópio composto foi inventado na mesma altura pelo holandês Zacharias Janssen (1588-1632). Em 1611, Kepler publicou a Dioptrics. Tinha descoberto a reflexão interna total e obtido a aproximação para pequenos ângulos da lei da refracção, no quadro da qual os ângulos de incidência e de refracção são proporcionais. Willebrord Snell (1591-1626), professor em Leyden, descobriu experimentalmente, em 1621, a lei da refracção há tanto procurada. Ao compreender exactamente como é que os raios de luz são deflectidos ao atravessar a fronteira entre dois meios, isto é, um dioptro, Snell abriu a porta para a óptica aplicada contemporânea. René Descartes (1596-1650) publicou pela primeira vez a formulação da lei da refracção usando senos, hoje tão familiar.
Pierre de Fermat (1601-1665), ignorando os pressupostos de Descartes, deduziu também a lei da reflexão, com base no seu princípio do tempo mínimo (1657). Partindo do princípio de Herão, do percurso mínimo, afirmou que a luz, ao propagar-se de um ponto para outro, escolhe o caminho para o qual o tempo de percurso é mínimo mesmo que, para tal, se tenha de desviar relativamente ao caminho mais curto.
A difracção, isto é, o desvio relativamente à direcção de propagação rectilínea que ocorre quando a luz se propaga para além de um obstáculo, foi observada pela primeira vez por Francesco Maria Grimaldi (1618-1663), no colégio dos Jesuítas, em Bolonha. Robert Hooke (1635-1703), experimentalista na Royal Society, em Londres, observou também fenómenos de difracção. Hooke foi o primeiro a estudar os padrões de interferência coloridos gerados por películas delgadas (Micrographia, 1665); concluiu correctamente que estes eram devidos à interacção entre a luz reflectida nas superfícies frontal e posterior do filme e propôs que a luz fosse considerada associada a um rápido movimento oscilatório do meio, propagando-se a grande velocidade. Esta foi a primeira pedra da teoria ondulatória da luz.
Isaac Newton (1642-1727) nasceu pouco menos de um ano após a morte de Galileu. Manteve-se ambivalente durante muito tempo relativamente à verdadeira natureza da luz. Seria a luz de natureza corpuscular, constituída por fluxo de partículas, como alguns defendiam? Seria a luz uma onda num meio omnipresente, o éter? Newton concluiu que a luz branca devia ser composta por uma mistura de toda uma gama de cores independentes. Defendeu que os corpúsculos de luz associados às várias cores geravam no éter vibrações características. Apesar do seu trabalho revelar uma curiosa propensão para, simultaneamente, abarcar as teorias ondulatória e corpuscular (de emissão), Newton tornou-se progressivamente adepto desta última. A razão principal para rejeitar a teoria ondulatória era, conforme afirmou então, o problema da propagação rectilínea da luz, inexplicável com base em ondas que se propagam em todas as direcções.
Enquanto Sir Isaac Newton defendia em Inglaterra a teoria da emissão, Christian Huygens (1629-1695), no continente europeu, difundia largamente a teoria ondulatória. Ao contrário de Descartes, Hooke e Newton, Huygens concluiu correctamente que a luz, de facto, abrandava ao penetrar em meios mais densos. Foi capaz de explicar as leis da reflexão e da refracção e chegou mesmo a explicar com base na teoria ondulatória a dupla refracção na calcite.
O grande peso da opinião de Newton abafou a teoria ondulatória durante o século XVIII, silenciando todos menos os seus defensores acérrimos.
3. O século XIX
A teoria ondulatória renasceu nas mãos de Thomas Young (1773-1829), um dos principais físicos do século XIX. Em 12 de Novembro de 1801, 1 de Julho de 1802 e 24 de Novembro de 1803, Young apresentou comunicações à Royal Society defendendo a teoria ondulatória e incorporando-lhe um novo conceito fundamental, o chamado princípio das interferências. Young conseguiu explicar as franjas coloridas de películas delgadas e determinou os comprimentos de onda de várias cores utilizando os dados de Newton. À sombra da pressuposta infalibilidade de Newton, os ingleses não estavam ainda preparados para aceitar o discernimento de Young e este acabou por desanimar.
Augustin Jean Fresnel (1788-1827) nasceu em Broglie, na Normandia, França, e iniciou os seus trabalhos sobre a teoria ondulatória sem conhecer os esforços de Young cerca de 13 anos antes. Fresnel unificou os conceitos inerentes à descrição ondulatória de Huygens e ao princípio das interferências. Quando deu conta dos trabalhos anteriores de Young relativos ao princípio das interferências, foi um Fresnel algo desapontado que escreveu a Young, dizendo-se consolado por se encontrar em tão boa companhia. E os dois grandes homens tornaram-se aliados. Fresnel desenvolveu uma descrição mecanicista das oscilações do éter, trabalho que culminou nas suas famosas equações para a amplitude da luz reflectida e transmitida. Por volta de 1825, a teoria corpuscular tinha já muito poucos defensores acérrimos.
O estudo da electricidade e do magnetismo estava a ser feito em paralelo com o da óptica. James Clerk Maxwell (1831-1879) agregou brilhantemente todos os conhecimentos experimentais acumulados sobre os fenómenos eléctricos e magnéticos num conjunto único de equações matemáticas. Com base nesta notável síntese sucinta e simétrica, Maxwell foi capaz de mostrar teoricamente que o campo electromagnético se podia propagar como uma onda transversal no éter e obteve a velocidade de propagação dessa onda em função de propriedades eléctricas e magnéticas do meio. Utilizando valores conhecidos, determinados empiricamente, chegou a um resultado igual ao determinado experimentalmente para a velocidade da luz! A conclusão era inequívoca - a luz é "uma perturbação electromagnética que, sob a forma de ondas, se propaga através do éter".
A teoria ondulatória da luz parecia exigir a aceitação da existência de um substracto que tudo penetrava: o éter. Parecia óbvio que as ondas só se podiam propagar num meio de suporte. Assim, e naturalmente, muito do esforço científico foi orientado para determinar a natureza física desse éter.
4. A óptica no século XX
Após experiências infrutíferas quanto à confirmação da existência do éter, a luz foi encarada como uma onda que existia por si própria e a ênfase conceptual passou do éter para o campo. A onda electromagnética tornou-se uma entidade própria.
Em 1905, com base na hipótese de Planck, Einstein propôs uma nova teoria corpuscular, segundo a qual a luz seria constituída por glóbulos ou "partículas" de energia. No final dos anos vinte, devido aos esforços de Bohr, Born, Heisenberg, Schrödinger, De Broglie, Pauli, Dirac e outros, a mecânica quântica transformou-se numa teoria bem fundamentada e tornou-se gradualmente evidente que os conceitos de onda e partícula, que no mundo macroscópico se parecem excluir mutuamente, deviam ser fundidos no domínio submicroscópico. Descobriu-se que as "partículas" podiam dar origem a padrões de interferência e difracção, exactamente como a luz.
O florescimento da óptica, na segunda metade do século XX, representa um verdadeiro renascimento. O computador veio melhorar significativamente o desenho de sistemas ópticos complexos. As fibras ópticas evoluíram e têm aplicações operacionais; existem já guias de ondas em dieléctricos. O domínio do infravermelho no espectro da luz tem sido amplamente utilizado em sistemas de vigilância, condução de mísseis, etc, o que, por sua vez, estimulou o desenvolvimento de novos materiais para o infravermelho. Os plásticos começaram a ser utilizados em óptica (lentes, reprodução de redes, fibras, elementos asféricos, etc). Desenvolveu-se uma nova classe de cerâmicas parcialmente vitrificadas, com coeficientes de expansão térmica muito reduzidos. O primeiro laser foi construído em 1960; numa década apenas, os lasers cobriram uma parte do espectro, do infravermelho ao ultra-violeta. A técnica de reconstrução de frentes de onda, conhecida por holografia, produz imagens tridimensionais magníficas. Têm sido desenvolvidas descobertas numerosas aplicações adicionais (ensaios não destrutivos, arquivo, etc).
Considerações económicas associadas à necessidade de melhorar a qualidade de vida têm, mais do que nunca, levado os produtos da óptica até ao consumidor. Os lasers são hoje utilizados em tudo: na leitura de discos compactos, no corte de aço, na impressão de jornais, na leitura de códigos de barras em supermercados, na cirurgia dos hospitais, etc. Uma revolução de vasto alcance no modo de processar e transmitir informação está a surgir discretamente, uma revolução que alterará significativamente a vida de todos nós, nos próximos anos.
Os conhecimentos profundos não são fáceis de obter. Pouco se aprendeu nos últimos três mil anos embora o ritmo de aprendizagem seja cada vez mais rápido. É maravilhoso, de facto, assistir a mudanças subtis da resposta à pergunta que permanece imutável: o que é a luz?
Eugene Hecht, ÓPTICA, Fundação Calouste Gulbenkian, Lisboa, 1991 (colagem de extractos do capítulo 1, por vezes ligeiramente adaptados)
Este blog é destinado ao estudo da Física do 2º ano do Ensino Médio da Escola “13 de maio”. Alunos e alunas da “13” durante o ano letivo, vamos utilizar este blog para estudo de textos relacionados a Física, onde vocês após a leitura dos mesmos deverão fazer comentários. Mas é pra comentar meeeeeesssmo!!!!!!!!!!
terça-feira, 1 de novembro de 2011
domingo, 18 de setembro de 2011
TRABALHO EXTRA SOBRE ENERGIA NUCLEAR
Cliquem no link para baixar a apostila sobre Energia Nuclear para o trabalho extra:
ACELERADORES DE PARTÍCULAS
O que são aceleradores de partículas e como funcionam?
Existem, no que se refere à forma, dois tipos de aceleradores: lineares e circulares. Nos aceleradores lineares, também chamados de linacs, o feixe de partículas praticamente percorre uma trajetória retilínea de uma extremidade a outra do acelerador.
Já nos aceleradores circulares, também chamados de cíclotrons, o feixe de partículas percorre trajetórias circulares por várias vezes antes de colidir com o alvo. Em cada volta, as partículas são mais aceleradas, devido à presença de campos elétricos que dão novos impulsos às partículas. Nesse caso, ímãs gigantes são utilizados para manter o feixe de partículas em sua trajetória circular.
É importante lembrar que partículas carregadas em movimento estão associadas a um campo magnético ao seu redor e se tornam um ímã. Outros ímãs gigantes, estrategicamente colocados ao longo do acelerador circular, interagem com o campo das partículas carregadas, alterando sua trajetória.
Esses ímãs gigantes representam a força constante em direção ao centro do círculo, força essa que mantém o feixe de partículas em trajetória circular, sem aumentar ou diminuir a energia das partículas que compõem o feixe.
Nos aceleradores de partículas cria-se uma situação de vácuo de alta precisão, para evitar que as partículas carregadas colidam com outros tipos de partículas ou pedaços de matéria.
Comparações
Comparando-se os dois tipos de aceleradores, temos que os circulares são bem mais eficientes, pois, a cada volta, as partículas recebem novos impulsos, aumentando a sua energia, o que permite que os pesquisadores consigam partículas com energias altíssimas antes das colisões.
Outra vantagem dos aceleradores circulares é a de que não precisam ser muito compridos para atingir as altas energias, já que o feixe de partículas dá várias voltas. Esse número de voltas também aumenta a chance de colisões entre partículas que se cruzam.
Com relação aos aceleradores lineares, são bem mais fáceis de construir, pois não necessitam de ímãs potentes para manter a trajetória circular (como no caso dos aceleradores circulares) do feixe de partículas, já que elas percorrerão uma trajetória retilínea.
Os aceleradores circulares também precisam de um grande raio para que as partículas atinjam as energias necessárias, o que torna seu custo bem maior do que o de um linear.
Outro aspecto importante considerado pelos pesquisadores é que partículas carregadas irradiam energia quando aceleradas - e quando trabalhamos com altas energias a radiação perdida é maior para acelerações circulares.
Esses são alguns aspectos importantes, que devem ser considerados por pesquisadores e financiadores de pesquisas antes da construção de um acelerador de partículas.
Primeiro acelerador
Podemos dizer que o predecessor dos aceleradores circulares foi o cíclotron construído, em 1929, por Ernest Lawrence, ganhador do prêmio Nobel em 1939. No cíclotron temos uma geometria circular dividida ao meio, onde prótons são injetados em sua parte central e, graças à mudança de polaridade do campo elétrico existente entre as duas metades, são acelerados e vão percorrendo órbitas maiores até deixarem o acelerador.
As órbitas circulares são possíveis graças à presença de um campo magnético uniforme, disposto perpendicularmente à base. Aqui energias da ordem de 106eV (1 Gev) são atingidas.
Esses princípios básicos foram de extrema importância para o desenvolvimento dos aceleradores circulares.
Superacelerador
O ano de 2008 representa um grande avanço na área da física de partículas, pois marca o início das pesquisas com um superacelerador de partículas que representa o maior empreendimento científico e tecnológico da atualidade.
Denominado LHC (Large Hadron Collider - Grande Colisor de Hádrons), com 27 km de circunferência, construído a 100 metros de profundidade e atingindo áreas da França e da Suíça, esse acelerador fará partículas nucleares (prótons, que são hádrons formados por dois quarks up e um down - uud) se chocarem com altíssimas energias.
Durante as colisões são esperadas energias em torno de TeV (trilhões de elétrons - volt). Comparem com a energia obtida com o cíclotron de Ernest Lawrence e vejam o avanço obtido!
O LHC está abrigado no CERN (Conseil Européen pour La Recherche Nucléaire - Conselho Europeu para Pesquisas Nucleares), hoje denominado European Laboratory for Particle Physics - Laboratório Europeu para Física de Partículas.
Como funciona um acelerador de partículas?
No século 20, uma quantidade enorme de novas partículas foram descobertas e a ideia sobre quais seriam as partículas elementares - as constituintes básicas da matéria, que não são formadas por nenhuma outra partícula - mudou.
Podemos dizer que a década de 1950 marca o surgimento da física de partículas como um novo ramo da física. E, junto com ele, um modelo para explicar essa nova gama de partículas e suas interações, conhecido como Modelo Padrão (Standard).
Para estudar essas pequenas partículas e suas interações, ou seja, para estudar a matéria em seu interior, os pesquisadores precisaram criar, artificialmente, condições em que as partículas se manifestassem com altíssimas energias. Para cumprir essa finalidade desenvolveram-se, aceleradores potentes, capazes de detectar antipartículas, como os antiprótons (em 1955) e os antinêutrons (1956).
Apenas para efeito de comparação, uma tomada comum pode resultar num choque de uma centena (102) de elétron-volt (eV), enquanto as altíssimas energias das partículas deveriam ser da ordem de 109 (o número um seguido de nove zeros!) a 1012 (o número um seguido de doze zeros!). Para tanto, foram desenvolvidos os aceleradores de partículas.
(Observação: um elétron-volt (eV) representa a energia que um elétron adquire ao ser acelerado por uma ddp (diferença de potencial) de 1 V. É uma unidade de energia comumente utilizada em física nuclear. 1 eV corresponde a 1,6 . 10-19 J).
Já nos aceleradores circulares, também chamados de cíclotrons, o feixe de partículas percorre trajetórias circulares por várias vezes antes de colidir com o alvo. Em cada volta, as partículas são mais aceleradas, devido à presença de campos elétricos que dão novos impulsos às partículas. Nesse caso, ímãs gigantes são utilizados para manter o feixe de partículas em sua trajetória circular.
É importante lembrar que partículas carregadas em movimento estão associadas a um campo magnético ao seu redor e se tornam um ímã. Outros ímãs gigantes, estrategicamente colocados ao longo do acelerador circular, interagem com o campo das partículas carregadas, alterando sua trajetória.
Esses ímãs gigantes representam a força constante em direção ao centro do círculo, força essa que mantém o feixe de partículas em trajetória circular, sem aumentar ou diminuir a energia das partículas que compõem o feixe.
Nos aceleradores de partículas cria-se uma situação de vácuo de alta precisão, para evitar que as partículas carregadas colidam com outros tipos de partículas ou pedaços de matéria.
Comparações
Comparando-se os dois tipos de aceleradores, temos que os circulares são bem mais eficientes, pois, a cada volta, as partículas recebem novos impulsos, aumentando a sua energia, o que permite que os pesquisadores consigam partículas com energias altíssimas antes das colisões.
Outra vantagem dos aceleradores circulares é a de que não precisam ser muito compridos para atingir as altas energias, já que o feixe de partículas dá várias voltas. Esse número de voltas também aumenta a chance de colisões entre partículas que se cruzam.
Com relação aos aceleradores lineares, são bem mais fáceis de construir, pois não necessitam de ímãs potentes para manter a trajetória circular (como no caso dos aceleradores circulares) do feixe de partículas, já que elas percorrerão uma trajetória retilínea.
Os aceleradores circulares também precisam de um grande raio para que as partículas atinjam as energias necessárias, o que torna seu custo bem maior do que o de um linear.
Outro aspecto importante considerado pelos pesquisadores é que partículas carregadas irradiam energia quando aceleradas - e quando trabalhamos com altas energias a radiação perdida é maior para acelerações circulares.
Esses são alguns aspectos importantes, que devem ser considerados por pesquisadores e financiadores de pesquisas antes da construção de um acelerador de partículas.
Primeiro acelerador
Podemos dizer que o predecessor dos aceleradores circulares foi o cíclotron construído, em 1929, por Ernest Lawrence, ganhador do prêmio Nobel em 1939. No cíclotron temos uma geometria circular dividida ao meio, onde prótons são injetados em sua parte central e, graças à mudança de polaridade do campo elétrico existente entre as duas metades, são acelerados e vão percorrendo órbitas maiores até deixarem o acelerador.
As órbitas circulares são possíveis graças à presença de um campo magnético uniforme, disposto perpendicularmente à base. Aqui energias da ordem de 106eV (1 Gev) são atingidas.
Esses princípios básicos foram de extrema importância para o desenvolvimento dos aceleradores circulares.
Superacelerador
O ano de 2008 representa um grande avanço na área da física de partículas, pois marca o início das pesquisas com um superacelerador de partículas que representa o maior empreendimento científico e tecnológico da atualidade.
Denominado LHC (Large Hadron Collider - Grande Colisor de Hádrons), com 27 km de circunferência, construído a 100 metros de profundidade e atingindo áreas da França e da Suíça, esse acelerador fará partículas nucleares (prótons, que são hádrons formados por dois quarks up e um down - uud) se chocarem com altíssimas energias.
Durante as colisões são esperadas energias em torno de TeV (trilhões de elétrons - volt). Comparem com a energia obtida com o cíclotron de Ernest Lawrence e vejam o avanço obtido!
O LHC está abrigado no CERN (Conseil Européen pour La Recherche Nucléaire - Conselho Europeu para Pesquisas Nucleares), hoje denominado European Laboratory for Particle Physics - Laboratório Europeu para Física de Partículas.
Como funciona um acelerador de partículas?
No século 20, uma quantidade enorme de novas partículas foram descobertas e a ideia sobre quais seriam as partículas elementares - as constituintes básicas da matéria, que não são formadas por nenhuma outra partícula - mudou.
Podemos dizer que a década de 1950 marca o surgimento da física de partículas como um novo ramo da física. E, junto com ele, um modelo para explicar essa nova gama de partículas e suas interações, conhecido como Modelo Padrão (Standard).
Para estudar essas pequenas partículas e suas interações, ou seja, para estudar a matéria em seu interior, os pesquisadores precisaram criar, artificialmente, condições em que as partículas se manifestassem com altíssimas energias. Para cumprir essa finalidade desenvolveram-se, aceleradores potentes, capazes de detectar antipartículas, como os antiprótons (em 1955) e os antinêutrons (1956).
Apenas para efeito de comparação, uma tomada comum pode resultar num choque de uma centena (102) de elétron-volt (eV), enquanto as altíssimas energias das partículas deveriam ser da ordem de 109 (o número um seguido de nove zeros!) a 1012 (o número um seguido de doze zeros!). Para tanto, foram desenvolvidos os aceleradores de partículas.
(Observação: um elétron-volt (eV) representa a energia que um elétron adquire ao ser acelerado por uma ddp (diferença de potencial) de 1 V. É uma unidade de energia comumente utilizada em física nuclear. 1 eV corresponde a 1,6 . 10-19 J).
O átomo de hidrogênio possui um próton (carga positiva)
no núcleo e um elétron (carga negativa) orbitando ao
redor desse núcleo, conforme o modelo atômico de Bohr
Funcionamento
O acelerador provoca um aumento de velocidade em uma partícula carregada por meio de campos eletromagnéticos - e essa partícula é atirada contra um ponto específico, onde existem detectores que registram o evento.
Dois conceitos físicos estão presentes aqui: o aumento de velocidade da partícula carregada, sua aceleração, ocorre devido à presença de um campo elétrico, sendo que a mudança de trajetória (quando é curvada) resulta da ação de um campo magnético.
Um exemplo simples de acelerador de partículas é a televisão, onde elétrons são liberados, acelerados por um campo elétrico e colimados por um campo magnético, atingindo a tela e formando a imagem.
Os aceleradores de partículas têm como princípio de funcionamento uma fonte de íons, geralmente obtida ionizando-se átomos de hidrogênio, constituídos por um próton em seu núcleo, juntamente com um nêutron e um elétron orbitando ao seu redor.
Para obter a fonte de íons os pesquisadores podem utilizar:
O acelerador provoca um aumento de velocidade em uma partícula carregada por meio de campos eletromagnéticos - e essa partícula é atirada contra um ponto específico, onde existem detectores que registram o evento.
Dois conceitos físicos estão presentes aqui: o aumento de velocidade da partícula carregada, sua aceleração, ocorre devido à presença de um campo elétrico, sendo que a mudança de trajetória (quando é curvada) resulta da ação de um campo magnético.
Um exemplo simples de acelerador de partículas é a televisão, onde elétrons são liberados, acelerados por um campo elétrico e colimados por um campo magnético, atingindo a tela e formando a imagem.
Os aceleradores de partículas têm como princípio de funcionamento uma fonte de íons, geralmente obtida ionizando-se átomos de hidrogênio, constituídos por um próton em seu núcleo, juntamente com um nêutron e um elétron orbitando ao seu redor.
Para obter a fonte de íons os pesquisadores podem utilizar:
- Elétrons: por meio do aquecimento de um metal ou por uma descarga elétrica, permitindo que a energia de ligação (entre o próton e elétron) seja vencida e resultando na separação dos elétrons. É o que ocorre na televisão, onde os elétrons são liberados pelo aquecimento de um filamento - e também no chamado tubo de raios catódicos. Assim, conseguem-se muitos elétrons separados, que podem ser direcionados pela ação de campos elétricos e magnéticos, resultando em feixes de partículas.
- Prótons: obtidos pela ionização do hidrogênio, através do mesmo processo citado anteriormente. Afinal, se o elétron é separado do hidrogênio, ficamos com o próton também separado.
- Antipartículas: obtidas quando partículas com altíssimas energias colidem com um alvo. Na colisão são criados pares de partículas e antipartículas por meio da troca de fótons ou glúons. Esses pares são separados com a utilização de campos magnéticos.
O átomo de hidrogênio possui um próton (carga positiva) no núcleo e um elétron (carga negativa) orbitando ao redor desse núcleo, conforme o modelo atômico de Bohr.
Aceleração e colisão
O feixe de partículas produzido é utilizado no acelerador, onde campos elétricos atraem ou repelem essas partículas carregadas, produzindo uma aceleração.
O sentido e a direção dessas partículas são controlados por meio de campos magnéticos associados a ímãs gigantes colocados ao longo do acelerador. Esses campos magnéticos têm que ser mais intensos à medida que a velocidade da partícula aumenta, pois, com a aceleração, essas partículas aumentam também a sua energia cinética, tornando-se mais difícil mudar sua trajetória. Com uma energia bem maior, o feixe de partículas colide com um alvo, onde detectores vão colher informações de acordo com o interesse dos pesquisadores.
Essas colisões podem ocorrer da seguinte maneira:
Aceleração e colisão
O feixe de partículas produzido é utilizado no acelerador, onde campos elétricos atraem ou repelem essas partículas carregadas, produzindo uma aceleração.
O sentido e a direção dessas partículas são controlados por meio de campos magnéticos associados a ímãs gigantes colocados ao longo do acelerador. Esses campos magnéticos têm que ser mais intensos à medida que a velocidade da partícula aumenta, pois, com a aceleração, essas partículas aumentam também a sua energia cinética, tornando-se mais difícil mudar sua trajetória. Com uma energia bem maior, o feixe de partículas colide com um alvo, onde detectores vão colher informações de acordo com o interesse dos pesquisadores.
Essas colisões podem ocorrer da seguinte maneira:
- Alvo fixo - o feixe de partículas, após obter uma grande quantidade de energia no acelerador, colide com um alvo imóvel.
- Alvo móvel - são utilizados dois feixes de partículas em sentidos contrários que se cruzarão. Consequentemente, algumas partículas irão colidir.
quinta-feira, 25 de agosto de 2011
ONDAS
ONDAS ELETROMAGNÉTICAS
INTRODUÇÃO
É importante tomarmos consciência de como estamos imersos em ondas eletromagnéticas. Iniciando pelo Sol, a maior e mais importante fonte para os seres terrestres, cuja vida depende do calor e da luz recebidos através de ondas eletromagnéticas.
Além de outras, recebemos também: a radiação eletromagnética emitida, por átomos de hidrogênio neutro que povoam o espaço interestelar da nossa galáxia; as emissões na faixa de radiofreqüências dos "quasares" (objetos ópticos que se encontram a enormes distâncias de nós, muito além de nossa galáxia, e que produzem enorme quantidade de energia); pulsos intensos de radiação dos "pulsares" (estrelas pequenas cuja densidade média é em torno de 10 trilhões de vezes a densidade média do Sol).

Essas radiações são tão importantes que deram origem a uma nova ciência, a Radioastronomia, que se preocupa em captar e analisar essas informações obtidas do espaço através de ondas.
Há ainda as fontes terrestres de radiação eletromagnética: as estações de rádio e de TV, o sistema de telecomunicações à base de microondas, lâmpadas artificiais, corpos aquecidos e muitas outras.
A primeira previsão da existência de ondas eletromagnéticas foi feita, em 1864, pelo físico escocês, James Clerk Maxwell . Ele conseguiu provar teoricamente que uma perturbação eletromagnética devia se propagar no vácuo com uma velocidade igual à da luz.E a primeira verificação experimental foi feita por Henrich Hertz, em 1887. Hertz produziu ondas eletromagnéticas por meio de circuitos oscilantes e, depois, detectou-se por meio de outros circuitos sintonizados na mesma freqüência. Seu trabalho foi homenageado posteriormente colocando-se o nome"Hertz" para unidade de freqüência.

ESPECTRO ELETROMAGNÉTICO
A palavra espectro (do latim "spectrum", que significa fantasma ou aparição) foi usada por Isaac Newton, no século XVII, para descrever a faixa de cores que apareceu quando numa experiência a luz do Sol atravessou um prisma de vidro em sua trajetória.
Atualmente chama-se espectro eletromagnético à faixa de freqüências e respectivos comprimentos de ondas que caracterizam os diversos tipos de ondas eletromagnéticas.
As ondas eletromagnéticas no vácuo têm a mesma velocidade , modificando a freqüência de acordo com espécie e, conseqüentemente, o comprimento de onda.
Atualmente chama-se espectro eletromagnético à faixa de freqüências e respectivos comprimentos de ondas que caracterizam os diversos tipos de ondas eletromagnéticas.
As ondas eletromagnéticas no vácuo têm a mesma velocidade , modificando a freqüência de acordo com espécie e, conseqüentemente, o comprimento de onda.

Observe que algumas freqüências de TV podem coincidir com a freqüência de FM. Isso permite algumas vezes captar uma rádio FM na televisão ou captar um canal de TV num aparelho de rádio FM.
CARACTERÍSTICAS DAS PRINCIPAIS RADIAÇÕES
Ondas de Rádio
"Ondas de rádio" é a denominação dada às ondas desde freqüências muito pequenas, até 1012 Hz , acima da qual estão os raios infravermelhos.
As ondas de rádio são geradas por osciladores eletrônicos instalados geralmente em um lugar alto, para atingir uma maior região. Logo o nome "ondas de rádio" inclui as microondas, as ondas de TV, as ondas curtas, as ondas longas e as próprias bandas de AM e FM.Ondas de rádio propriamente ditas:
As ondas de rádio são geradas por osciladores eletrônicos instalados geralmente em um lugar alto, para atingir uma maior região. Logo o nome "ondas de rádio" inclui as microondas, as ondas de TV, as ondas curtas, as ondas longas e as próprias bandas de AM e FM.Ondas de rádio propriamente ditas:

As ondas de rádio propriamente ditas, que vão de 104 Hz a 107 Hz , têm comprimento de onda grande, o que permite que elas sejam refletidas pelas camadas ionizadas da atmosfera superior (ionosfera).

Ondas de TV
As emissões de TV são feitas a partir de 5x107 Hz (50 MHz) . É costume classificar as ondas de TV em bandas de freqüência (faixa de freqüência), que são:
VHF : very high frequency (54 MHz à 216 MHZ è canal 2 à 13)
UHF : ultra-high frequency (470 MHz à 890 MHz è canal 14 à 83)
SHF : super-high frequency
EHF : extremely high frequency
VHFI : veri high frequency indeed
UHF : ultra-high frequency (470 MHz à 890 MHz è canal 14 à 83)
SHF : super-high frequency
EHF : extremely high frequency
VHFI : veri high frequency indeed
As ondas de TV não são refletidas pela ionosfera, de modo que para estas ondas serem captadas a distâncias superiores a 75 Km é necessário o uso de estações repetidoras.

Microondas

Microondas correspondem à faixa de mais alta freqüência produzida por osciladores eletrônicos. Freqüências mais altas que as microondas só as produzidas por oscilações moleculares e atômicas.
As microondas são muito utilizadas em telecomunicações. As ligações de telefone e programas de TV recebidos "via satélite" de outros países são feitas com o emprego de microondas.
As microondas também podem ser utilizadas para funcionamento de um radar. Uma fonte emite uma radiação que atinge um objeto e volta para o ponto onde a onda foi emitida. De acordo com a direção em que a radiação volta pode ser descoberta a localização do objeto que refletiu a onda.
As microondas são muito utilizadas em telecomunicações. As ligações de telefone e programas de TV recebidos "via satélite" de outros países são feitas com o emprego de microondas.
As microondas também podem ser utilizadas para funcionamento de um radar. Uma fonte emite uma radiação que atinge um objeto e volta para o ponto onde a onda foi emitida. De acordo com a direção em que a radiação volta pode ser descoberta a localização do objeto que refletiu a onda.


A dispersão de cores em um prisma acontece por causa do índice de refração do vidro. Todo material tem um índice de refração diferente. Quando a luz entra em um material (por exemplo, quando a luz que viaja pelo ar entra no vidro de um prisma), a diferença entre o índice refrativo do ar e do vidro faz que a luz se curve. O ângulo de curvatura é diferente para os diversos comprimentos de onda da luz. Quando a luz branca se move através das duas faces do prisma, as diversas cores, com seus comprimentos diferentes, se dividem, formando um arco-íris.

O ângulo entre o raio de luz que entra nas gotas e o que sai delas é de 42º para o vermelho e de 40º para o violeta. Da próxima vez que encontrar um arco-íris, você irá observá-lo com outros olhos. Para obter mais informações, confira Como funciona o arco-íris em http://ciencia.hsw.uol.com.br/arco-iris2.htm. fonte:(http://ciencia.hsw.uol.com.br/questao41.htm)
Nosso olho só tem condições de perceber freqüências que vão de 4,3x1014 Hz a 7x1014 , faixa indicada pelo espectro como luz visível.
Nosso olho percebe a freqüência de 4,3x1014 como a cor vermelha. Freqüências abaixo desta não são visíveis e são chamados de raios infravermelhos , que têm algumas aplicações práticas.
A freqüência de 7x1014 é vista pelo olho como cor violeta. Freqüências acima desta também não são visíveis e recebem o nome de raios ultravioleta. Têm também algumas aplicações.
A faixa correspondente à luz visível pode ser subdividida de acordo com o espectro do esquema.


Esses raios são produzidos sempre que um feixe de elétrons dotados de energia incidem sobre um obstáculo material. A energia cinética do feixe incidente é parcialmente transformada em energia eletromagnética, dando origem aos raios X.
Os raios X são capazes de impressionar uma chapa fotográfica e são muito utilizados em radiografias, já que conseguem atravessar a pele e os músculos da pessoa, mas são retidos pelos ossos.
Os raios X são também bastante utilizados no tratamento de doenças como o câncer. Têm ainda outras aplicações: na pesquisa da estrutura da matéria, em Química, em Mineralogia e outros ramos.
Raios GamaAs ondas eletromagnéticas com freqüência acima da dos raios X recebe o nome de raios gama (g ).

Um material radioativo pode emitir raios gama durante muito tempo, até atingir uma forma mais estável.
Raios gama de alta energia podem ser observados também nos raios cósmicos que atingem a alta atmosfera terrestre em grande quantidade por segundo.
Os raios gama podem causar graves danos às células, de modo que os cientistas que trabalham em laboratório de radiação devem desenvolver métodos especiais de detecção e proteção contra doses excessivas desses raios.quarta-feira, 1 de junho de 2011
MATERIAL COMPLEMENTAR
Material de Física Térmica para download já disponível
Para baixar clique NOS LINKS ABAIXO:
http://www.4shared.com/document/4LE7yobD/FISICA_TERMICA_1.html
http://www.4shared.com/document/3Jp5PQqH/FISICA_TERMICA_2.html
http://www.4shared.com/document/jsSp1rwu/FISICA_TERMICA_3.html
http://www.4shared.com/document/DJaO6ASL/FISICA_TERMICA_4.html
http://www.4shared.com/document/zHKbPZsX/FisicaTermica_GERAL.html
http://www.4shared.com/document/5JRfRXZr/lista_termica_21.html
http://www.4shared.com/document/YZAjFT0o/lista_termica_22.html
http://www.4shared.com/document/DMpgS6dI/lista_23-termod.html
BONS ESTUDOS E DIVIRTAM-SE!!!
Para baixar clique NOS LINKS ABAIXO:
http://www.4shared.com/document/4LE7yobD/FISICA_TERMICA_1.html
http://www.4shared.com/document/3Jp5PQqH/FISICA_TERMICA_2.html
http://www.4shared.com/document/jsSp1rwu/FISICA_TERMICA_3.html
http://www.4shared.com/document/DJaO6ASL/FISICA_TERMICA_4.html
http://www.4shared.com/document/zHKbPZsX/FisicaTermica_GERAL.html
http://www.4shared.com/document/5JRfRXZr/lista_termica_21.html
http://www.4shared.com/document/YZAjFT0o/lista_termica_22.html
http://www.4shared.com/document/DMpgS6dI/lista_23-termod.html
BONS ESTUDOS E DIVIRTAM-SE!!!
TRANSFERÊNCIA DE CALOR
RADIAÇÃO TERRESTRE
Quando a atmosfera absorve radiação terrestre ela se aquece e eventualmente irradia esta energia, para cima e para baixo, onde é novamente absorvida pela Terra. Portanto, a superfície da Terra é continuamente suprida com radiação da atmosfera e do Sol. Esta energia será novamente emitida pela superfície da Terra e uma parte retornará à atmosfera que, por sua vez, reirradiará uma parte para a Terra e assim por diante. Este jogo entre a superfície da Terra e a atmosfera torna a temperatura média da Terra ~ 35° C mais alta do que seria. Sem os gases absorvedores da nossa atmosfera, a Terra não seria adequada para a vida humana e muitas outras formas de vida.
Este fenômeno extremamente importante tem sido denominado efeito estufa, porque pensava-se que as estufas fossem aquecidas da mesma forma. O vidro em uma estufa permite a entrada de radiação de onda curta, que é absorvida pelos objetos no interior. Estes objetos reirradiam, mas em ondas longas, para as quais o vidro é quase opaco. O calor, portanto, é retido na estufa. A retenção da radiação infravermelha pelo vidro, contudo, é apenas parte da razão pela qual uma estufa retém calor interno. Já foi demonstrado que as estufas atingem altas temperaturas porque o vidro protege do vento, restringindo as perdas de calor por convecção e advecção (ver próxima seção).
A importância do vapor d'água e dióxido de carbono em manter a atmosfera aquecida é bem conhecida em regiões montanhosas. Topos de montanhas recebem mais radiação que os vales durante o dia, porque há menos atmosfera a atravessar. A noite, porém, a atmosfera menos densa também permite maior perda de calor. Este fator mais que compensa a radiação extra recebida e, como resultado, os vales permanecem mais quentes que as montanhas adjacentes, mesmo recebendo menos radiação.
As nuvens, assim como o vapor d'água e o CO2, são bons absorvedores de radiação infravermelha (terrestre) e tem papel importante em manter a superfície da Terra aquecida, especialmente à noite. Uma grossa camada de nuvens pode absorver a maior parte da radiação terrestre e reirradiá-la de volta. Isto explica porque em noites secas e claras a superfície se resfria bem mais que em noites úmidas ou com nuvens. Mesmo uma cobertura fina, através da qual a lua é visível, pode elevar a temperatura noturna em torno de 5 ° C.
MECANISMOS DE TRANSFERÊNCIA DE CALOR
Há três mecanismos conhecidos para transferência de calor: radiação, condução e convecção (Fig. 2.13).
Como vimos, a radiação consiste de ondas eletromagnéticas viajando com a velocidade da luz. Como a radiação é a única que pode ocorrer no espaço vazio, esta é a principal forma pela qual o sistema Terra-Atmosfera recebe energia do Sol e libera energia para o espaço.
A condução ocorre dentro de uma substância ou entre substâncias que estão em contato físico direto. Na condução a energia cinética dos átomos e moléculas (isto é, o calor) é transferida por colisões entre átomos e moléculas vizinhas. O calor flui das temperaturas mais altas (moléculas com maior energia cinética) para as temperaturas mais baixas (moléculas com menor energia cinética). A capacidade das substâncias para conduzir calor (condutividade) varia consideravelmente. Via de regra, sólidos são melhores condutores que líquidos e líquidos são melhores condutores que gases. Num extremo, metais são excelentes condutores de calor e no outro extremo, o ar é um péssimo condutor de calor. Conseqüentemente, a condução só é importante entre a superfície da Terra e o ar diretamente em contato com a superfície. Como meio de transferência de calor para a atmosfera como um todo a condução é o menos significativo e pode ser omitido na maioria dos fenômenos meteorológicos.
A convecção somente ocorre em líquidos e gases. Consiste na transferência de calor dentro de um fluído através de movimentos do próprio fluído. O calor ganho na camada mais baixa da atmosfera através de radiação ou condução é mais freqüentemente transferido por convecção. A convecção ocorre como conseqüência de diferenças na densidade do ar. Quando o calor é conduzido da superfície relativamente quente para o ar sobrejacente, este ar torna-se mais quente que o ar vizinho. Ar quente é menos denso que o ar frio de modo que o ar frio e denso desce e força o ar mais quente e menos denso a subir. O ar mais frio é então aquecido pela superfície e o processo é repetido.
Desta forma, a circulação convectiva do ar transporta calor verticalmente da superfície da Terra para a troposfera, sendo responsável pela redistribuição de calor das regiões equatoriais para os pólos. O calor é também transportado horizontalmente na atmosfera, por movimentos convectivos horizontais, conhecidos por advecção. O termo convecção é usualmente restrito à transferência vertical de calor na atmosfera.
Fig. 2.13 - Mecanismos de Transferência de Calor
Na atmosfera, o aquecimento envolve os três processos, radiação, condução e convecção, que ocorrem simultaneamente. O calor transportado pelos processos combinados de condução e convecção é denominado calor sensível.
BALANÇO GLOBAL DE CALOR
Fig. 2.14 - Balanço de Calor da Terra e atmosfera
Da radiação total interceptada pela Terra (sistema Terra-atmosfera), aproximadamente 30 unidades são refletidas de volta para o espaço. As restantes 70 unidades são absorvidas, 19 unidades pela atmosfera e 51 unidades pela superfície da Terra (Terra-oceano). Se toda a energia absorvida pela Terra fosse reirradiada diretamente para o espaço, o balanço de calor da Terra seria muito simples. Contudo, conforme vimos anteriormente, certos gases na atmosfera atuam no sentido de retardar a perda de radiação terrestre, absorvendo uma boa parte dela e reirradiando grande parte desta energia de volta para a Terra. Como resultado deste processo, a superfície da Terra recebe uma grande quantidade de radiação de onda longa da atmosfera (95 unidades). (A atmosfera na realidade emite mais energia que a quantidade de energia solar absorvida pela Terra, devido ao efeito estufa) A superfície da Terra, por sua vez, irradia 116 unidades de energia de onda longa para a atmosfera. Portanto, nesta troca (em onda longa) a atmosfera tem um ganho líquido de 15 unidades, enquanto a Terra tem uma perda líquida de 21 unidades. As restantes 6 unidades passam diretamente através da atmosfera e são perdidas no espaço. A radiação entre 8 micra a 11 micra escapa mais facilmente porque o vapor d'água e o dióxido de carbono não absorvem estes comprimentos de onda (ver Fig. 2.11).
Até agora contamos uma perda de 21 das 51 unidades de radiação de onda curta absorvidas pela superfície da Terra. E as 30 unidades restantes? Parte desta energia é transferida da superfície da Terra para a atmosfera através de calor latente, por moléculas de água durante o processo de evaporação (23 unidades). O calor latente refere-se à quantidade de calor envolvida em mudanças de fase da água. Por exemplo, a mudança da água líquida para vapor exige fornecimento de calor latente, enquanto a transformação de vapor para líquido libera calor latente. Outra parte das 30 unidades é transferida da superfície da Terra para a atmosfera por calor sensível (condução e convecção -7 unidades).
Um balanço geral é obtido porque a atmosfera emite 64 unidades de energia para o espaço como radiação de onda longa, fechando o balanço entre radiação incidente e radiação emitida.
sexta-feira, 15 de abril de 2011
As Forças que Atuam na Natureza
|
Assinar:
Postagens (Atom)