Podcasts de história

O nascimento da teoria quântica

O nascimento da teoria quântica

O físico alemão Max Planck publica seu estudo inovador do efeito da radiação em uma substância de "corpo negro" e nasce a teoria quântica da física moderna.

Por meio de experimentos físicos, Planck demonstrou que a energia, em certas situações, pode exibir características da matéria física. De acordo com as teorias da física clássica, a energia é apenas um fenômeno contínuo em forma de onda, independente das características da matéria física. A teoria de Planck sustentava que a energia radiante é composta de componentes semelhantes a partículas, conhecidos como "quanta". A teoria ajudou a resolver fenômenos naturais inexplicáveis ​​anteriormente, como o comportamento do calor em sólidos e a natureza da absorção de luz em nível atômico. Em 1918, Planck recebeu o Prêmio Nobel de Física por seu trabalho sobre radiação de corpos negros.

Outros cientistas, como Albert Einstein, Niels Bohr, Louis de Broglie, Erwin Schrodinger e Paul M. Dirac, avançaram a teoria de Planck e tornaram possível o desenvolvimento da mecânica quântica - uma aplicação matemática da teoria quântica que afirma que a energia é tanto matéria quanto uma onda, dependendo de certas variáveis. A mecânica quântica, portanto, adota uma visão probabilística da natureza, contrastando nitidamente com a mecânica clássica, em que todas as propriedades precisas dos objetos são, em princípio, calculáveis. Hoje, a combinação da mecânica quântica com a teoria da relatividade de Einstein é a base da física moderna.


O nascimento do tempo: os loops quânticos descrevem a evolução do Universo

O que foi o Big Bang e o que aconteceu antes dele? Cientistas da Faculdade de Física da Universidade de Varsóvia tentaram responder à pergunta. Dentro da estrutura da gravidade quântica em loop, eles propuseram um novo modelo teórico, que pode ser útil para validar hipóteses sobre eventos anteriores ao Big Bang. Essa conquista é um dos poucos modelos que descrevem a teoria de Einstein completa e não apenas sua versão bastante simplificada.

Físicos da Faculdade de Física da Universidade de Varsóvia apresentaram - nas páginas de Revisão Física D - um novo modelo teórico da gravidade quântica que descreve a emergência do espaço-tempo a partir das estruturas da teoria quântica. Não é apenas um dos poucos modelos que descrevem toda a teoria geral da relatividade proposta por Einstein, mas também é completamente consistente matematicamente. “As soluções aplicadas permitem traçar a evolução do Universo de uma forma mais aceitável fisicamente do que no caso dos modelos cosmológicos anteriores”, explica o Prof. Jerzy Lewandowski da Faculdade de Física da Universidade de Varsóvia (FUW).

Enquanto a teoria geral da relatividade é aplicada para descrever o Universo em uma escala cosmológica, a mecânica quântica é aplicada para descrever a realidade em uma escala atômica. Ambas as teorias foram desenvolvidas no início do século XX. Sua validade foi confirmada por experimentos e observações altamente sofisticados. O problema reside no fato de que as teorias são mutuamente exclusivas.

De acordo com a teoria geral da relatividade, a realidade é sempre determinada de maneira única (como na mecânica clássica). No entanto, o tempo e o espaço desempenham um papel ativo nos eventos e estão sujeitos às equações de Einstein. De acordo com a física quântica, por outro lado, só se pode obter uma compreensão aproximada da natureza. Uma previsão só pode ser feita com uma probabilidade de sua precisão ser limitada por propriedades inerentes. Mas as leis das teorias quânticas predominantes não se aplicam ao tempo e ao espaço. Tais contradições são irrelevantes sob condições padrão - as galáxias não estão sujeitas a fenômenos quânticos e a gravidade quântica desempenha um papel menor no mundo dos átomos e partículas. No entanto, os efeitos da gravidade e do quantum precisam se fundir sob condições próximas ao Big Bang.

Os modelos cosmológicos tradicionais descrevem a evolução do Universo dentro da estrutura da própria teoria geral da relatividade. As equações no centro da teoria sugerem que o Universo é uma criação dinâmica em constante expansão. Quando os teóricos tentam descobrir como era o Universo no passado, eles alcançam o estágio em que a densidade e a temperatura no modelo se tornam infinitas - em outras palavras, eles perdem o sentido físico. Assim, os infinitos podem ser apenas indicativos das fragilidades da teoria anterior e o momento do Big Bang não precisa significar o nascimento do Universo.

Para obter pelo menos algum conhecimento da gravidade quântica, os cientistas constroem modelos quânticos simplificados, conhecidos como modelos cosmológicos quânticos, nos quais o espaço-tempo e a matéria são expressos em um único valor ou em alguns valores isolados. Por exemplo, o modelo desenvolvido por Ashtekar, Bojowald, Lewandowski, Paw & # 322owski e Singh prevê que a gravidade quântica evita que o aumento da densidade de energia da matéria exceda um certo valor crítico (da ordem da densidade de Planck). Conseqüentemente, deve ter havido um universo em contração antes do Big Bang. Quando a densidade da matéria atingiu o valor crítico, ocorreu uma rápida expansão - o Big Bang, conhecido como Big Bounce. No entanto, o modelo é um modelo de brinquedo altamente simplificado.

A verdadeira resposta para o mistério do Big Bang está em uma teoria quântica unificada da matéria e da gravidade. Uma tentativa de desenvolver tal teoria é a gravidade quântica em loop (LQG). A teoria sustenta que o espaço é tecido a partir de fios unidimensionais. "É exatamente como no caso de um tecido - embora pareça liso à distância, fica evidente de perto que consiste em uma rede de fibras", descreve Wojciech Kami & # 324ski, MSc da FUW. Esse espaço constituiria um tecido fino - uma área de um centímetro quadrado consistiria em 10 66 fios.

Os físicos Marcin Domaga & # 322a, Wojciech Kami & # 324ski e Jerzy Lewandowski, juntamente com Kristina Giesel da Louisiana State University (convidada), desenvolveram seu modelo dentro da estrutura da gravidade quântica em loop. Os pontos de partida para o modelo são dois campos, um dos quais é um campo gravitacional. "Graças à teoria geral da relatividade, sabemos que a gravidade é a própria geometria do espaço-tempo. Podemos, portanto, dizer que nosso ponto de partida é o espaço tridimensional", explica Marcin Domaga & # 322a, PhD (FUW).

O segundo ponto de partida é um campo escalar - um objeto matemático no qual um determinado valor é atribuído a cada ponto no espaço. No modelo proposto, os campos escalares são interpretados como a forma mais simples da matéria. Os campos escalares são conhecidos na física há anos e são aplicados, entre outros, para descrever a distribuição de temperatura e pressão no espaço. “Optamos por um campo escalar por ser uma característica típica dos modelos cosmológicos contemporâneos e nosso objetivo é desenvolver um modelo que constitua mais um passo à frente na pesquisa da gravidade quântica”, observa o Prof. Lewandowski.

No modelo desenvolvido por físicos de Varsóvia, o tempo surge como a relação entre o campo gravitacional (espaço) e o campo escalar - um momento no tempo é dado pelo valor do campo escalar. "Colocamos a questão sobre a forma do espaço em um determinado valor do campo escalar e as equações quânticas de Einstein fornecem a resposta", explica o Prof. Lewandowski. Assim, o fenômeno da passagem do tempo emerge como propriedade do estado dos campos gravitacional e escalar e o surgimento de tal estado corresponde ao nascimento do conhecido espaço-tempo. “É importante ressaltar que o tempo é inexistente no início do modelo. Nada acontece. A ação e a dinâmica aparecem como a inter-relação entre os campos quando começamos a nos questionar sobre como um objeto se relaciona com o outro”, explica o Prof. Lewandowski.

Os físicos da FUW tornaram possível fornecer uma descrição mais precisa da evolução do Universo. Enquanto os modelos baseados na teoria geral da relatividade são simplificados e assumem que o campo gravitacional em todos os pontos do Universo é idêntico ou sujeito a pequenas mudanças, o campo gravitacional no modelo proposto pode diferir em diferentes pontos do espaço.

A construção teórica proposta é o primeiro modelo altamente avançado caracterizado pela consistência matemática interna. É a continuação natural da pesquisa em quantização da gravidade, onde cada nova teoria é derivada de teorias clássicas. Para tanto, os físicos aplicam certos algoritmos, conhecidos como quantizações. "Infelizmente para os físicos, os algoritmos estão longe de ser precisos. Por exemplo, pode resultar de um algoritmo que um espaço de Hilbert precisa ser construído, mas nenhum detalhe é fornecido", explica Marcin Domaga & # 322a, MSc. "Conseguimos realizar uma quantização completa e obtivemos um dos modelos possíveis."

Ainda há um longo caminho a percorrer, de acordo com o Prof. Lewandowski: "Desenvolvemos um certo maquinário teórico. Podemos começar a fazer perguntas e ele nos dará as respostas." Teóricos da FUW pretendem, entre outros, indagar se o Big Bounce realmente ocorre em seu modelo. “No futuro, tentaremos incluir no modelo outros campos do Modelo Padrão de partículas elementares. Estamos curiosos para saber o que vai acontecer”, diz o Prof. Lewandowski.


The Copenhagen Network

Autores: Kojevnikov, Alexei

  • Descreve os primeiros passos vacilantes dos primeiros físicos quânticos
  • Segue a trajetória de jovens pesquisadores em tempos economicamente incertos e difíceis
  • Faz parte de uma coleção de quatro volumes que traça o desenvolvimento da teoria quântica em quatro centros europeus

Compre este livro

  • ISBN 978-3-030-59188-5
  • Com marca d'água digital, sem DRM
  • Formato incluído: EPUB, PDF
  • e-books podem ser usados ​​em todos os dispositivos de leitura
  • Download imediato do e-book após a compra
  • ISBN 978-3-030-59187-8
  • Frete grátis para indivíduos em todo o mundo
  • Os clientes institucionais devem entrar em contato com seu gerente de conta
  • Normalmente pronto para envio dentro de 3 a 5 dias úteis, se em estoque

Este livro é uma análise histórica da revolução da mecânica quântica e o surgimento de uma nova disciplina da perspectiva, não de um professor, mas de um Ph.D. recente ou atual. estudante apenas embarcando em uma carreira acadêmica incerta em tempos economicamente difíceis. A mecânica quântica explodiu no cenário intelectual entre 1925 e 1927, com mais de 200 publicações em todo o mundo, a maioria delas de autoria de jovens cientistas com menos de 30 anos, estudantes de graduação ou pós-doutorandos. A teoria resultante era um produto coletivo que nenhuma autoridade poderia reivindicar, mas tinha um importante aceno geográfico - o Instituto de Física Teórica de Copenhagen - onde a maior parte da troca informal de ideias pré-publicada ocorreu e onde todos os participantes da nova comunidade aspirava visitar. Uma rara combinação de circunstâncias e recursos - políticos, diplomáticos, financeiros e intelectuais - permitiu a Niels Bohr estabelecer esta “Meca” da teoria quântica fora dos centros tradicionais e mais poderosos da ciência. Bolsistas de pós-doutorado internacionais transitórios, em vez de professores estabelecidos, desenvolveram uma cultura de pesquisa que se tornou a fonte das principais inovações no campo. Estágios temporários, posições de pós-doutorado e seus equivalentes eram o principal modo de existência para jovens acadêmicos durante o período de crise econômica e tensões internacionais pós-Primeira Guerra Mundial. Trajetórias de carreira inseguras e movimentos imprevisíveis por meio de posições temporárias não estáveis ​​contribuíram para sua visão geral e interpretações da teoria emergente da mecânica quântica.

Este livro é parte de uma coleção de quatro volumes que aborda os primórdios da pesquisa em física quântica nos principais centros europeus de Göttingen, Copenhague, Berlim e Munique. Essas obras surgiram de um estudo extenso sobre a revolução quântica como uma grande transformação do conhecimento físico realizada pelo Instituto Max Planck de História da Ciência e pelo Instituto Fritz Haber (2006–2012).


O nascimento da teoria quântica - HISTÓRIA

O físico alemão Max Planck publica seu estudo inovador do efeito da radiação em uma substância de "corpo negro", e nasce a teoria quântica da física moderna.

Por meio de experimentos físicos, Planck demonstrou que a energia, em certas situações, pode exibir características da matéria física. De acordo com as teorias da física clássica, a energia é apenas um fenômeno contínuo em forma de onda, independente das características da matéria física. A teoria de Planck afirmava que a energia radiante é feita de componentes semelhantes a partículas, conhecidos como "quânticos". A teoria ajudou a resolver fenômenos naturais inexplicáveis ​​anteriormente, como o comportamento do calor em sólidos e a natureza da absorção de luz em nível atômico. Em 1918, Planck recebeu o Prêmio Nobel de Física por seu trabalho sobre radiação de corpos negros.

Outros cientistas, como Albert Einstein, Niels Bohr, Louis de Broglie, Erwin Schrodinger e Paul M. Dirac, avançaram a teoria de Planck e tornaram possível o desenvolvimento da mecânica quântica - uma aplicação matemática da teoria quântica que afirma que a energia é ao mesmo tempo matéria e uma onda, dependendo de certas variáveis. A mecânica quântica, portanto, adota uma visão probabilística da natureza, contrastando nitidamente com a mecânica clássica, em que todas as propriedades precisas dos objetos são, em princípio, calculáveis. Hoje, a combinação da mecânica quântica com a teoria da relatividade de Einstein é a base da física moderna.


A teoria das cordas representa uma conseqüência da teoria da matriz S, [1] um programa de pesquisa iniciado por Werner Heisenberg em 1943 [2] após a introdução da matriz S de John Archibald Wheeler em 1937. [3] Muitos teóricos proeminentes adotaram e defenderam a teoria da matriz S, começando no final da década de 1950 e ao longo da década de 1960. O campo foi marginalizado e descartado em meados da década de 1970 [4] e desapareceu na década de 1980. Os físicos o negligenciaram porque alguns de seus métodos matemáticos eram estranhos e porque a cromodinâmica quântica o suplantou como uma abordagem experimentalmente mais qualificada para as interações fortes. [5]

A teoria apresentou um repensar radical dos fundamentos das leis físicas. Na década de 1940, ficou claro que o próton e o nêutron não eram partículas pontuais como o elétron. Seu momento magnético diferia muito daquele de uma partícula com carga de ½ spin semelhante a um ponto, demais para atribuir a diferença a uma pequena perturbação. Suas interações eram tão fortes que se espalhavam como uma pequena esfera, não como um ponto. Heisenberg propôs que as partículas de interação forte eram na verdade objetos estendidos e, como há dificuldades de princípio com partículas relativísticas estendidas, ele propôs que a noção de um ponto de espaço-tempo se rompia em escalas nucleares.

Sem espaço e tempo, torna-se difícil formular uma teoria física. Heisenberg propôs uma solução para esse problema: focar nas quantidades observáveis ​​- aquelas coisas mensuráveis ​​por experimentos. Um experimento só vê uma quantidade microscópica se puder ser transferida por uma série de eventos para os dispositivos clássicos que circundam a câmara experimental. Os objetos que voam para o infinito. são partículas estáveis, em superposições quânticas de diferentes estados de momento.

Heisenberg propôs que mesmo quando o espaço e o tempo não são confiáveis, a noção de estado de momentum, que é definido longe da câmara experimental, ainda funciona. A quantidade física que ele propôs como fundamental é a amplitude da mecânica quântica para que um grupo de partículas que chegam se transforme em um grupo de partículas que saem, e ele não admitia que houvesse etapas intermediárias.

A matriz S é a quantidade que descreve como uma coleção de partículas que chegam se transforma em partículas que saem. Heisenberg propôs estudar a matriz S diretamente, sem quaisquer suposições sobre a estrutura do espaço-tempo. Mas quando as transições do passado remoto para o futuro distante ocorrem em uma etapa, sem etapas intermediárias, fica difícil calcular qualquer coisa. Na teoria quântica de campos, as etapas intermediárias são as flutuações dos campos ou, de maneira equivalente, as flutuações das partículas virtuais. Nesta teoria da matriz S proposta, não existem quantidades locais.

Heisenberg propôs usar a unidade para determinar a matriz S. Em todas as situações concebíveis, a soma dos quadrados das amplitudes deve ser igual a 1. Esta propriedade pode determinar a amplitude em uma teoria quântica de campo ordem por ordem em uma série de perturbações, uma vez que as interações básicas são dadas, e em muitas teorias quânticas de campo as amplitudes crescer muito rápido em altas energias para fazer uma matriz S unitária. Mas sem suposições extras sobre o comportamento de alta energia, a unitariedade não é suficiente para determinar a dispersão, e a proposta foi ignorada por muitos anos.

A proposta de Heisenberg foi revivida em 1956 quando Murray Gell-Mann reconheceu que as relações de dispersão - como aquelas descobertas por Hendrik Kramers e Ralph Kronig na década de 1920 (ver relações Kramers-Kronig) - permitem a formulação de uma noção de causalidade, uma noção de que os eventos em o futuro não influenciaria os eventos do passado, mesmo quando a noção microscópica de passado e futuro não esteja claramente definida. Ele também reconheceu que essas relações podem ser úteis na computação de observáveis ​​para o caso de física de interação forte. [6] As relações de dispersão eram propriedades analíticas da matriz S, [7] e impunham condições mais rigorosas do que aquelas que seguem apenas da unitariedade. Este desenvolvimento na teoria da matriz S originou-se da descoberta de Murray Gell-Mann e Marvin Leonard Goldberger (1954) da simetria cruzada, outra condição que a matriz S tinha que cumprir. [8] [7]

Defensores proeminentes da nova abordagem de "relações de dispersão" incluíam Stanley Mandelstam [9] e Geoffrey Chew, [10] ambos na UC Berkeley na época. Mandelstam descobriu as relações de dupla dispersão, uma nova e poderosa forma analítica, em 1958, [9] e acreditava que ela forneceria a chave para o progresso nas intratáveis ​​interações fortes.

No final da década de 1950, muitas partículas de interação forte de spins cada vez mais altos foram descobertas, e ficou claro que nem todas eram fundamentais. Enquanto o físico japonês Shoichi Sakata propôs que as partículas poderiam ser entendidas como estados vinculados de apenas três deles (o próton, o nêutron e o Lambda ver o modelo Sakata), [11] Geoffrey Chew acreditava que nenhuma dessas partículas é fundamental [12] [13] (para detalhes, veja o modelo Bootstrap). A abordagem de Sakata foi retrabalhada na década de 1960 no modelo de quark por Murray Gell-Mann e George Zweig, tornando fracionárias as cargas dos constituintes hipotéticos e rejeitando a ideia de que eram partículas observadas. Na época, a abordagem de Chew era considerada mais convencional porque não introduzia valores de carga fracionária e porque se concentrava em elementos da matriz S mensuráveis ​​experimentalmente, não em constituintes pontuais hipotéticos.

Em 1959, Tullio Regge, um jovem teórico na Itália, descobriu que os estados vinculados na mecânica quântica podem ser organizados em famílias conhecidas como trajetórias de Regge, cada família tendo momentos angulares distintos. [14] Esta ideia foi generalizada para a mecânica quântica relativística por Stanley Mandelstam, Vladimir Gribov e Marcel Froissart [fr], usando um método matemático (a representação de Sommerfeld-Watson) descoberto décadas antes por Arnold Sommerfeld e Kenneth Marshall Watson [de]: o resultado foi apelidado de fórmula Froissart – Gribov. [15]

Em 1961, Geoffrey Chew e Steven Frautschi reconheceram que os mésons tinham trajetórias Regge em linha reta [16] (em seu esquema, o spin é plotado contra a massa ao quadrado no chamado gráfico Chew-Frautschi), o que implicava que o espalhamento dessas partículas seria tem um comportamento muito estranho - deve cair exponencialmente rapidamente em grandes ângulos. Com essa constatação, os teóricos esperavam construir uma teoria das partículas compostas nas trajetórias de Regge, cujas amplitudes de espalhamento tivessem a forma assintótica exigida pela teoria de Regge.

Em 1967, um notável avanço na abordagem bootstrap foi o princípio da dualidade DHS introduzido por Richard Dolen, David Horn e Christoph Schmid em 1967, [17] na Caltech (o termo original para isso era "dualidade média" ou "finito dualidade da regra da soma de energia (FESR) "). Os três pesquisadores notaram que as descrições de troca de pólos de Regge (em alta energia) e ressonância (em baixa energia) oferecem múltiplas representações / aproximações de um mesmo processo fisicamente observável. [18]

O primeiro modelo em que as partículas hadrônicas seguem essencialmente as trajetórias de Regge foi o modelo de ressonância dupla que foi construído por Gabriele Veneziano em 1968, [19] que observou que a função beta de Euler poderia ser usada para descrever dados de amplitude de espalhamento de 4 partículas para tais partículas . A amplitude de espalhamento Veneziano (ou modelo Veneziano) foi rapidamente generalizado para um N-amplitude de partícula por Ziro Koba e Holger Bech Nielsen [20] (sua abordagem foi apelidada de formalismo Koba-Nielsen), e ao que agora é reconhecido como cordas fechadas por Miguel Virasoro [21] e Joel A. Shapiro [22] (seus abordagem foi apelidada de modelo Shapiro – Virasoro).

Em 1969, as regras de Chan-Paton (propostas por Jack E. Paton e Hong-Mo Chan) [23] permitiram que fatores isospin fossem adicionados ao modelo de Veneziano. [24]

Em 1969-70, Yoichiro Nambu, [25] Holger Bech Nielsen, [26] e Leonard Susskind [27] [28] apresentaram uma interpretação física da amplitude de Veneziano, representando as forças nucleares como cordas vibrantes e unidimensionais. No entanto, essa descrição baseada em cordas da força forte fez muitas previsões que contradiziam diretamente os resultados experimentais.

Em 1971, Pierre Ramond [29] e, independentemente, John H. Schwarz e André Neveu [30] tentaram implementar férmions no modelo dual. Isso levou ao conceito de "cordas giratórias" e apontou o caminho para um método para remover o tachyon problemático (ver formalismo RNS). [31]

Modelos de ressonância dupla para interações fortes foram um assunto de estudo relativamente popular entre 1968 e 1973. [32] A comunidade científica perdeu o interesse na teoria das cordas como uma teoria de interações fortes em 1973, quando a cromodinâmica quântica se tornou o principal foco da pesquisa teórica [33] (principalmente devido ao apelo teórico de sua liberdade assintótica). [34]

Em 1974, John H. Schwarz e Joël Scherk, [35] e independentemente Tamiaki Yoneya, [36] estudaram os padrões semelhantes a bósons de vibração das cordas e descobriram que suas propriedades correspondiam exatamente às do gráviton, a partícula mensageira hipotética da força gravitacional. Schwarz e Scherk argumentaram que a teoria das cordas falhou em pegar porque os físicos subestimaram seu escopo. Isso levou ao desenvolvimento da teoria das cordas bosônicas.

A teoria das cordas é formulada em termos da ação de Polyakov, [37] que descreve como as cordas se movem no espaço e no tempo. Como as molas, as cordas tendem a se contrair para minimizar sua energia potencial, mas a conservação de energia impede que desapareçam e, em vez disso, oscilam. Aplicando as idéias da mecânica quântica às cordas, é possível deduzir os diferentes modos vibracionais das cordas e que cada estado vibracional parece ser uma partícula diferente. A massa de cada partícula e a forma com que ela pode interagir são determinadas pela forma como a corda vibra - em essência, pela "nota" que a corda "toca". A escala de notas, cada uma correspondendo a um tipo diferente de partícula, é chamada de "espectro" da teoria.

Os primeiros modelos incluíam ambos abrir strings, que têm dois pontos de extremidade distintos, e fechado strings, onde os pontos de extremidade são unidos para formar um loop completo. Os dois tipos de string se comportam de maneiras ligeiramente diferentes, produzindo dois espectros. Nem todas as teorias de cordas modernas usam os dois tipos, algumas incorporam apenas a variedade fechada.

O modelo de string mais antigo tem vários problemas: ele tem uma dimensão crítica D = 26, uma característica que foi descoberta originalmente por Claud Lovelace em 1971 [38] a teoria tem uma instabilidade fundamental, a presença de taquions [39] (veja a condensação de taquions). Além disso, o espectro de partículas contém apenas bósons, partículas como o fóton que obedecem a regras particulares de comportamento. Embora os bósons sejam um ingrediente crítico do Universo, eles não são seus únicos constituintes. Investigar como uma teoria das cordas pode incluir férmions em seu espectro levou à invenção da supersimetria (no Ocidente) [40] em 1971, [41] uma transformação matemática entre bósons e férmions. As teorias das cordas que incluem vibrações fermiônicas são agora conhecidas como teorias das supercordas.

Em 1977, a projeção GSO (nomeada em homenagem a Ferdinando Gliozzi, Joël Scherk e David I. Olive) levou a uma família de teorias de cordas livres unitárias livres de táquions, [42] as primeiras teorias de supercordas consistentes (veja abaixo).

o primeira revolução das supercordas é um período de descobertas importantes que começou em 1984. [43] Foi percebido que a teoria das cordas era capaz de descrever todas as partículas elementares, bem como as interações entre elas. Centenas de físicos começaram a trabalhar na teoria das cordas como a ideia mais promissora para unificar as teorias físicas. [44] A revolução foi iniciada pela descoberta de cancelamento de anomalias na teoria das cordas tipo I por meio do mecanismo de Green-Schwarz (em homenagem a Michael Green e John H. Schwarz) em 1984. [45] [46] A descoberta inovadora de a corda heterótica foi feita por David Gross, Jeffrey Harvey, Emil Martinec e Ryan Rohm em 1985. [47] Também foi realizada por Philip Candelas, Gary Horowitz, Andrew Strominger e Edward Witten em 1985 que para obter N = 1 < displaystyle N = 1> supersimetria, as seis pequenas dimensões extras (o D = 10 dimensão crítica da teoria das supercordas foi originalmente descoberta por John H. Schwarz em 1972) [48] precisa ser compactada em uma variedade Calabi-Yau. [49] (Na teoria das cordas, compactificação é uma generalização da teoria de Kaluza-Klein, que foi proposta pela primeira vez na década de 1920.) [50]

Em 1985, cinco teorias de supercordas separadas foram descritas: tipo I, [51] tipo II (IIA e IIB), [51] e heterótica (SO (32) e E8×E8) . [47]

Descobrir A revista na edição de novembro de 1986 (vol. 7, # 11) apresentou uma história de capa escrita por Gary Taubes, "Everything's Now Tied to Strings", que explicava a teoria das cordas para um público popular.

Em 1987, Eric Bergshoeff [de], Ergin Sezgin [de] e Paul Townsend mostraram que não há supercordas em onze dimensões (o maior número de dimensões consistente com um único gráviton nas teorias da supergravidade), [52] mas supermembranas. [53]

No início da década de 1990, Edward Witten e outros encontraram fortes evidências de que as diferentes teorias das supercordas eram limites diferentes de uma teoria 11-dimensional [54] [55] que se tornou conhecida como teoria M [56] (para obter detalhes, consulte Introdução ao M -teoria). Essas descobertas desencadearam o segunda revolução das supercordas que ocorreu aproximadamente entre 1994 e 1995. [57]

As diferentes versões da teoria das supercordas foram unificadas, como há muito se esperava, por novas equivalências. Eles são conhecidos como dualidade S, dualidade T, dualidade U, simetria de espelho e transições conifold. As diferentes teorias das cordas também foram relacionadas à teoria-M.

Em 1995, Joseph Polchinski descobriu que a teoria requer a inclusão de objetos de dimensões superiores, chamados D-branas: [58] essas são as fontes de campos elétricos e magnéticos de Ramond-Ramond que são exigidos pela dualidade das cordas. [59] As D-branas adicionaram uma rica estrutura matemática adicional à teoria e abriram possibilidades para a construção de modelos cosmológicos realistas na teoria (para obter detalhes, consulte cosmologia de Brane).

Em 1997-98, Juan Maldacena conjecturou uma relação entre a teoria das cordas e N = 4 teoria supersimétrica de Yang-Mills, uma teoria de calibre. [60] Esta conjectura, chamada de correspondência AdS / CFT, gerou um grande interesse na física de altas energias. [61] É uma realização do princípio holográfico, que tem implicações de longo alcance: a correspondência AdS / CFT ajudou a elucidar os mistérios dos buracos negros sugeridos pelo trabalho de Stephen Hawking [62] e acredita-se que forneça uma resolução do problema buraco da informação paradoxo. [63]

Em 2003, a descoberta de Michael R. Douglas da paisagem da teoria das cordas, [64] que sugere que a teoria das cordas tem um grande número de falsos vacua desigual, [65] levou a muitas discussões sobre o que a teoria das cordas poderia eventualmente prever, e como a cosmologia pode ser incorporada à teoria. [66]

Um possível mecanismo de estabilização a vácuo da teoria das cordas (o mecanismo KKLT) foi proposto em 2003 por Shamit Kachru, Renata Kallosh, Andrei Linde e Sandip Trivedi. [67]


Uma história da Mecânica Quântica

O nêutron não foi descoberto até 1932, portanto, é contra esse pano de fundo que rastreamos o início da teoria quântica até 1859.

Em 1859, Gustav Kirchhoff provou um teorema sobre a radiação do corpo negro. Um corpo negro é um objeto que absorve toda a energia que incide sobre ele e, por não refletir luz, pareceria negro para um observador. Um corpo negro também é um emissor perfeito e Kirchhoff provou que a energia emitida E E E depende apenas da temperatura T T T e da frequência v v v da energia emitida, ou seja,

Ele desafiou os físicos a encontrar a função J J J.

Em 1879, Josef Stefan propôs, em bases experimentais, que a energia total emitida por um corpo quente era proporcional à quarta potência da temperatura. Na generalidade afirmada por Stefan, isso é falso. A mesma conclusão foi alcançada em 1884 por Ludwig Boltzmann para a radiação de corpo negro, desta vez a partir de considerações teóricas usando a termodinâmica e a teoria eletromagnética de Maxwell. O resultado, agora conhecido como lei Stefan-Boltzmann, não responde totalmente ao desafio de Kirchhoff, uma vez que não responde à pergunta para comprimentos de onda específicos.

Em 1896, Wilhelm Wien propôs uma solução para o desafio de Kirchhoff. No entanto, embora sua solução corresponda de perto às observações experimentais para pequenos valores do comprimento de onda, ela foi mostrada para quebrar no infravermelho distante por Rubens e Kurlbaum.

Kirchhoff, que havia estado em Heidelberg, mudou-se para Berlim. Boltzmann recebeu sua cadeira em Heidelberg, mas recusou. A cadeira foi então oferecida a Hertz, que também recusou a oferta, então ela foi oferecida novamente, desta vez a Planck e ele aceitou.

Rubens visitou Planck em outubro de 1900 e explicou seus resultados a ele. Poucas horas depois de Rubens deixar a casa de Planck, Planck adivinhou a fórmula correta para a função J J J de Kirchhoff. Essa suposição se ajustou muito bem às evidências experimentais em todos os comprimentos de onda, mas Planck não ficou satisfeito com isso e tentou fornecer uma derivação teórica da fórmula. Para fazer isso, ele deu o passo sem precedentes de assumir que a energia total é composta de elementos de energia indistinguíveis - quanta de energia. Ele escreveu

Planck himself gave credit to Boltzmann for his statistical method but Planck's approach was fundamentally different. However theory had now deviated from experiment and was based on a hypothesis with no experimental basis. Planck won the 1918 Nobel Prize for Physics for this work.

In 1901 Ricci and Levi-Civita published Absolute differential calculus. It had been Christoffel's discovery of 'covariant differentiation' in 1869 which let Ricci extend the theory of tensor analysis to Riemannian space of n n n dimensions. The Ricci and Levi-Civita definitions were thought to give the most general formulation of a tensor. This work was not done with quantum theory in mind but, as so often happens, the mathematics necessary to embody a physical theory had appeared at precisely the right moment.

In 1905 Einstein examined the photoelectric effect. The photoelectric effect is the release of electrons from certain metals or semiconductors by the action of light. The electromagnetic theory of light gives results at odds with experimental evidence. Einstein proposed a quantum theory of light to solve the difficulty and then he realised that Planck's theory made implicit use of the light quantum hypothesis. By 1906 Einstein had correctly guessed that energy changes occur in a quantum material oscillator in changes in jumps which are multiples of ℏ v hslash v ℏ v where ℏ hslash ℏ is Planck's reduced constant and v v v is the frequency. Einstein received the 1921 Nobel Prize for Physics, in 1922 , for this work on the photoelectric effect.

In 1913 Niels Bohr wrote a revolutionary paper on the hydrogen atom. He discovered the major laws of the spectral lines. This work earned Bohr the 1922 Nobel Prize for Physics. Arthur Compton derived relativistic kinematics for the scattering of a photon ( a light quantum ) off an electron at rest in 1923 .

However there were concepts in the new quantum theory which gave major worries to many leading physicists. Einstein, in particular, worried about the element of 'chance' which had entered physics. In fact Rutherford had introduced spontaneous effect when discussing radio-active decay in 1900 . In 1924 Einstein wrote:-

Einstein had been puzzled by paradox ( ii ) and Pauli quickly told Bohr that he did not believe his theory. Further experimental work soon ended any resistance to belief in the electron. Other ways had to be found to resolve the paradoxes.

Up to this stage quantum theory was set up in Euclidean space and used Cartesian tensors of linear and angular momentum. However quantum theory was about to enter a new era.

The year 1924 saw the publication of another fundamental paper. It was written by Satyendra Nath Bose and rejected by a referee for publication. Bose then sent the manuscript to Einstein who immediately saw the importance of Bose's work and arranged for its publication. Bose proposed different states for the photon. He also proposed that there is no conservation of the number of photons. Instead of statistical independence of particles, Bose put particles into cells and talked about statistical independence of cells. Time has shown that Bose was right on all these points.

Work was going on at almost the same time as Bose's which was also of fundamental importance. The doctoral thesis of Louis de Broglie was presented which extended the particle-wave duality for light to all particles, in particular to electrons. Schrödinger in 1926 published a paper giving his equation for the hydrogen atom and heralded the birth of wave mechanics. Schrödinger introduced operators associated with each dynamical variable.

The year 1926 saw the complete solution of the derivation of Planck's law after 26 years. It was solved by Dirac. Also in 1926 Born abandoned the causality of traditional physics. Speaking of collisions Born wrote

Heisenberg's work used matrix methods made possible by the work of Cayley on matrices 50 years earlier. In fact 'rival' matrix mechanics deriving from Heisenberg's work and wave mechanics resulting from Schrödinger's work now entered the arena. These were not properly shown to be equivalent until the necessary mathematics was developed by Riesz about 25 years later.

Also in 1927 Bohr stated that space-time coordinates and causality are complementary. Pauli realised that spin, one of the states proposed by Bose, corresponded to a new kind of tensor, one not covered by the Ricci and Levi-Civita work of 1901 . However the mathematics of this had been anticipated by Eli Cartan who introduced a 'spinor' as part of a much more general investigation in 1913 .

Dirac, in 1928 , gave the first solution of the problem of expressing quantum theory in a form which was invariant under the Lorentz group of transformations of special relativity. He expressed d'Alembert's wave equation in terms of operator algebra.

The uncertainty principle was not accepted by everyone. Its most outspoken opponent was Einstein. He devised a challenge to Niels Bohr which he made at a conference which they both attended in 1930 . Einstein suggested a box filled with radiation with a clock fitted in one side. The clock is designed to open a shutter and allow one photon to escape. Weigh the box again some time later and the photon energy and its time of escape can both be measured with arbitrary accuracy. Of course this is not meant to be an actual experiment, only a 'thought experiment'.

Niels Bohr is reported to have spent an unhappy evening, and Einstein a happy one, after this challenge by Einstein to the uncertainty principle. However Niels Bohr had the final triumph, for the next day he had the solution. The mass is measured by hanging a compensation weight under the box. This is turn imparts a momentum to the box and there is an error in measuring the position. Time, according to relativity, is not absolute and the error in the position of the box translates into an error in measuring the time.

Although Einstein was never happy with the uncertainty principle, he was forced, rather grudgingly, to accept it after Bohr's explanation.

In 1932 von Neumann put quantum theory on a firm theoretical basis. Some of the earlier work had lacked mathematical rigour, but von Neumann put the whole theory into the setting of operator algebra.


5. The Transactional Interpretation

This entry so far has considered the two most significant motivating arguments in favor of adopting retrocausality as a hypothesis for dealing with the interpretational challenges of quantum theory. But these motivations do not by themselves amount to an interpretation or model of quantum theory. §6 consists of a survey of a range of retrocausal models, but this section first considers perhaps the most prominent retrocausal model, the transactional interpretation. Developed by Cramer in the 1980s (Cramer 1980, 1986, 1988), the transactional interpretation is heavily influenced by the framework of the Wheeler-Feynman absorber approach to electrodynamics (see §1) the Wheeler-Feynman schema can be adopted to describe the microscopic exchange of a single quantum of energy, momentum, etc., between and within quantum systems.

At the heart of the transactional interpretation is the &ldquotransaction&rdquo: real physical events are identified with so-called &ldquohandshakes&rdquo between forward-evolving quantum states (psi) and backward-evolving complex-conjugates (psi^*). When a quantum emitter (such as a vibrating electron or atom in an excited state) is to emit a single quantum (a photon, in these cases), the source produces a radiative field&mdashthe &ldquooffer&rdquo wave. Analogously to the Wheeler-Feynman description, this field propagates outwards both forward and backward in time (as well as across space). When this field encounters an absorber, a new field is generated&mdashthe &ldquoconfirmation&rdquo wave&mdashthat likewise propagates both forward and backward in time, and so is present as an advanced incident wave at the emitter at the instant of emission. Both the retarded field produced by the absorber and the advanced field produced by the emitter exactly cancel with the retarded field produced by the emitter and advanced field produced by the absorber for all times before the emission and after the absorption of the photon only between the emitter and the absorber is there a radiative field. Thus the transaction is completed with this &ldquohandshake&rdquo: a cycle of offer and confirmation waves

repeats until the response of the emitter and absorber is sufficient to satisfy all of the quantum boundary conditions&hellipat which point the transaction is completed. (Crammer 1986: 662)

Many confirmation waves from potential absorbers may converge on the emitter at the time of emission but the quantum boundary conditions can usually only permit a single transaction to form. Any observer who witnesses this process would perceive only the completed transaction, which would be interpreted as the passage of a particle (e.g., a photon) between emitter and absorber.

The transactional interpretation takes the wave function to be a real physical wave with spatial extent. The wave function of the quantum mechanical formalism is identical with the initial offer wave of the transaction mechanism and the collapsed wave function is identical with the completed transaction. Quantum particles are thus not to be thought of as represented by the wave function but rather by the completed transaction, of which the wave function is only the initial phase. As Cramer explains:

The transaction may involve a single emitter and absorber or multiple emitters and absorbers, but it is only complete when appropriate boundary conditions are satisfied at all loci of emission and absorption. Particles transferred have no separate identity independent from the satisfaction of these boundary conditions. (1986: 666)

The amplitude of the confirmation wave which is produced by the absorber is proportional to the local amplitude of the incident wave that stimulated it and this, in turn, is dependent on the attenuation it received as it propagated from the source. Thus, the total amplitude of the confirmation wave is just the absolute square of the initial offer wave (evaluated at the absorber), which yields the Born rule. Since the Born rule arises as a product of the transaction mechanism, there is no special significance attached to the role of the observer in the act of measurement. The &ldquocollapse of the wave function&rdquo is interpreted as the completion of the transaction.

The transactional interpretation explicitly interprets the quantum state (psi) as real, and so does not constitute an attempt to exploit the retrocausality loopholes to the theorems that rule out (psi)-epistemic accounts. Additionally, the transactional interpretation subverts the dilemma at the core of the EPR argument (Einstein, et al. 1935) by permitting incompatible observables to take on definite values simultaneously: the wavefunction, according to the transactional interpretation,

brings to each potential absorber the full range of possible outcomes, and all have &ldquosimultaneous reality&rdquo in the EPR sense. The absorber interacts so as to cause one of these outcomes to emerge in the transaction, so that the collapsed [wavefunction] manifests only one of these outcomes. (Crammer 1986: 668).

Most importantly, however, the transactional interpretation employs both retarded and advanced waves, and in doing so admits the possibility of providing a &ldquozigzag&rdquo explanation of the nonlocality associated with entangled quantum systems.

Before turning to one of the more significant objections to the transactional interpretation, and to retrocausality in general, it is instructive to tease apart here two complementary descriptions of this transaction process. On the one hand there is a description of the real physical process, consisting of the passage of a particle between emitter and absorber, that a temporally bound experimenter would observe and on the other hand there is a description of a dynamical process of offer and confirmation waves that is instrumental in establishing the transaction. This latter process simply cannot occur in an ordinary time sequence, not least because any temporally bound observer by construction cannot detect any offer or confirmation waves. Cramer suggests that the &ldquodynamical process&rdquo be understood as occurring in a &ldquopseudotime&rdquo sequence:

The account of an emitter-absorber transaction presented here employs the semantic device of describing a process extending across a lightlike or a timelike interval of space-time as if it occurred in a time sequence external to the process. The reader is reminded that this is only a pedagogical convention for the purposes of description. The process is atemporal and the only observables come from the superposition of all &ldquosteps&rdquo to form the final transaction. (Crammer 1986: 661, fn.14)

These steps are of course the cyclically repeated exchange of offer and confirmation waves which continue &ldquountil the net exchange of energy and other conserved quantities satisfies the quantum boundary conditions of the system&rdquo (1986: 662). There is a strong sense here that any process described as occurring in pseudotime is not a process at all but, as Cramer reminds, merely a &ldquopedagogical convention for the purposes of description&rdquo. Whether it is best to understand causality according to the transactional interpretation in terms of processes underscored by conserved quantities is closely tied to how one should best understand this pseudotemporal process.

Maudlin (2011) outlines a selection of problems that arise in Cramer&rsquos theory as a result of the pseudotemporal account of the transaction mechanism: processes important to the completion of a transaction take place in pseudotime only (rather than in real time) and thus cannot be said to have taken place at all. Since a temporally bound observer can only ever perceive a completed transaction, i.e., a collapsed wavefunction, the uncollapsed wavefunction never actually exists. Since the initial offer wave is identical to the wavefunction of the quantum formalism, any ensuing exchange of advanced and retarded waves required to provide the quantum mechanical probabilities, according to Maudlin, also do not exist. Moreover, Cramer&rsquos exposition of the transaction mechanism seems to suggest that the stimulation of sequential offer and confirmation waves occurs deterministically, leaving a gaping hole in any explanation the transactional interpretation might provide of the stochastic nature of quantum mechanics. Although these problems are significant, Maudlin admits that they may indeed be peculiar to Cramer&rsquos theory. Maudlin also sets out a more general objection to retrocausal models of quantum mechanics which he claims to pose a problem for &ldquoany theory in which both backwards and forwards influences conspire to shape events&rdquo (2011: 184).

Maudlin&rsquos main objection to the transactional interpretation hinges upon the fact that the transaction process depends crucially on the fixity of the absorbers &ldquojust sitting out there in the future, waiting to absorb&rdquo (2011: 182) one cannot presume that present events are unable to influence the future disposition of the absorbers. Maudlin offers a thought experiment to illustrate this objection. A radioactive source is constrained to emit a (eta)-particle either to the left or to the right. To the right sits absorber UMA at a distance of 1 unit. Absorber B is also located to the right but at a distance of 2 units and is built on pivots so that it can be swung around to the left on command. A (eta)-particle emitted at time (t_<0>) to the right will be absorbed by absorber UMA at time (t_<1>). If after time (t_<1>) the (eta)-particle is not detected at absorber UMA, absorber B is quickly swung around to the left to detect the (eta)-particle after time (2t_<1>).

According to the transactional interpretation, since there are two possible outcomes (detection at absorber UMA or detection at absorber B), there will be two confirmation waves sent back from the future, one for each absorber. Furthermore, since it is equally probable that the (eta)-particle be detected at either absorber, the amplitudes of these confirmation waves should be equal. However, a confirmation wave from absorber B can only be sent back to the emitter if absorber B is located on the left. For this to be the case, absorber UMA must not have detected the (eta)-particle and thus the outcome of the experiment must already have been decided. The incidence of a confirmation wave from absorber B at the emitter Garantir that the (eta)-particle is to be sent to the left, even though the amplitude of this wave implies a probability of a half of this being the case. As Maudlin (2011: 184) states so succinctly, &ldquoCramer&rsquos theory collapses&rdquo.

The key challenge from Maudlin is that any retrocausal mechanism must ensure that the future behavior of the system transpires consistently with the spatiotemporal structure dictated by any potential future causes: &ldquostochastic outcomes at a particular point in time may influence the future, but that future itself is supposed to play a role in producing the outcomes&rdquo (2011: 181). In the transactional interpretation the existence of the confirmation wave itself presupposes some determined future state of the system with retrocausal influence. However, with standard (i.e., forward-in-time) stochastic causal influences affecting the future from the present, a determined future may not necessarily be guaranteed in every such case, as shown by Maudlin&rsquos experiment.

Maudlin&rsquos challenge to the transactional interpretation has been met with a range of responses (see P. Lewis 2013 and the entry on action at a distance in quantum mechanics for more discussion of possible responses). The responses generally fall into two types (P. Lewis 2013). The first type of response attempts to accommodate Maudlin&rsquos example within the transactional interpretation. Berkovitz (2002) defends the transactional interpretation by showing that causal loops of the type found in Maudlin&rsquos experiment need not obey the assumptions about probabilities that are common in linear causal situations. Marchildon (2006) proposes considering the absorption properties of the long distance boundary conditions: if the universe is a perfect absorber of all radiation then a confirmation wave from the left will always be received by the radioactive source at the time of emission and it will encode the correct probabilistic information. Kastner (2006) proposes differentiating between competing initial states of the radioactive source, corresponding to the two emission possibilities, that together characterize an unstable bifurcation point between distinct worlds, where the seemingly problematic probabilities reflect a probabilistic structure across both possible worlds.

The second type of response is to modify the transactional interpretation. For instance, Cramer (2016) introduces the idea of a hierarchy of advanced-wave echoes dependent upon the magnitude of the spatiotemporal interval from which they originate. Kastner (2013) surmises that the source of the problem that Maudlin has exposed, however, is the idea that quantum processes take place in the &ldquoblock world&rdquo, and rejects this conception of processes in her own development of the transactional interpretation. According to her &ldquopossibilist&rdquo transactional interpretation, all the potential transactions exist in a real space of possibilities, which amounts at once to a kind of modal realism and an indeterminacy regarding future states of the system (hence Kastner&rsquos rejection of the block universe view). The possibilist transactional interpretation arguably handles multi-particle scenarios more naturally, and presents the most modern sustained development of the transactional interpretation (although see P. Lewis 2013 for criticisms of the possibilist transactional interpretation specific to Maudlin&rsquos challenge).


6. The Continuous Spontaneous Localization Model (CSL)

The model just presented (QMSL) has a serious drawback: it does not allow to deal with systems containing identical constituents, because it does not respect the symmetry or antisymmetry requirements for such particles. A quite natural idea to overcome this difficulty is to relate the hitting process not to the individual particles but to the particle number density averaged over an appropriate volume. This can be done by introducing a new phenomenological parameter in the theory which however can be eliminated by an appropriate limiting procedure (see below).

Another way to overcome this problem derives from injecting the physically appropriate principles of the GRW model within the original approach of P. Pearle. This line of thought has led to what is known as the CSL (Continuous Spontaneous Localization) model (Pearle 1989 Ghirardi, Pearle, and Rimini 1990) in which the discontinuous jumps which characterize QMSL are replaced by a continuous stochastic evolution in the Hilbert space (a sort of Brownian motion of the statevector).

The basic working principles are CSL are similar to those of the GRW model, though the technical detail might different significantly. For a review see (Bassi and Ghirardi 2003 Adler 2007, Bassi, Lochan, et al. 2013). At this regard, it is interesting to note (Ghirardi, Pearle, & Rimini 1990) that for any CSL dynamics there is a hitting dynamics which, from a physical point of view, is &lsquoas close to it as one wants&rsquo. Instead of entering into the details of the CSL formalism, it is useful, for the discussion below, to analyze a simplified version of it.

With the aim of understanding the physical implications of the CSL model, such as the rate of suppression of coherence, we make now some simplifying assumptions. First, we assume that we are dealing with only one kind of particles (e.g., the nucleons), secondly, we disregard the standard Schrödinger term in the evolution and, finally, we divide the whole space in cells of volume (d^3). We denote by (ket) a Fock state in which there are (n_i) particles in cell (i), and we consider a superposition of two states (ket) and (ket) which differ in the occupation numbers of the various cells of the universe. With these assumptions it is quite easy to prove that the rate of suppression of the coherence between the two states (so that the final state is one of the two and not their superposition) is governed by the quantity:

all cells of the universe appearing in the sum within the square brackets in the exponent. Apart from differences relating to the identity of the constituents, the overall physics is quite similar to that implied by QMSL.

Equation 6 offers the opportunity of discussing the possibility of relating the suppression of coherence to gravitational effects. In fact, with reference to this equation we notice that the worst case scenario (from the point of view of the time necessary to suppress coherence) is that corresponding to the superposition of two states for which the occupation numbers of the individual cells differ only by one unit. In this case the amplifying effect of taking the square of the differences disappears. Let us then ask the question: how many nucleons (at worst) should occupy different cells, in order for the given superposition to be dynamically suppressed within the time which characterizes human perceptual processes? Since such a time is of the order of (10^<-2>) sec and (f = 10^<-16> ext< sec>^<-1>), the number of displaced nucleons must be of the order of (10^<18>), which corresponds, to a remarkable accuracy, to a Planck mass. This figure seems to point in the same direction as Penrose&rsquos attempts to relate reduction mechanisms to quantum gravitational effects (Penrose 1989).


Max Planck and the Birth of Quantum Mechanics

From left to right: Walther Nernst, Albert Einstein, Max Planck, Robert Andrews Millikan, and Max von Laue at a dinner given by von Laue on November 12, 1931, in Berlin.

In the early evening of Sunday, October 7, 1900—120 years ago—Max Planck found the functional form of the curve that we now know as the Planck distribution of black-body radiation. By my account, it was the birthdate of quantum mechanics.

A few hours earlier Hermann Rubens and his wife had visited the Plancks. This being a Sunday, they probably enjoyed coffee and cake together. Rubens was the experimental professor of physics at Humboldt University in Berlin where Planck was the theoretical one. Rubens and his collaborator, Ferdinand Kurlbaum, had recently managed to measure the power emitted by a black body as a function of temperature at the unusually long wavelength of 51 microns. They had used multiple reflections from rock salt to filter a narrow band of the spectrum. Working at 51 microns, they measured the low temperature limit and the highest temperatures within the experimental reach of their oven. The remarkable result was that at low frequencies, in the classical regime, the results did not fit the predictions of Wilhelm Wien. Rubens told Planck that for small frequencies the measured spectral density was linear with temperature.

Planck was intrigued. As soon as the gathering ended, he set to work. His interest in the data was profound. That evening he figured out the shape of the curve, with its peculiar denominator that in the limit of low frequency showed the appropriate experimental behavior—linear with temperature.

The anecdote, as referred by Abraham Pais in his book Subtle is the Lord, states that Planck mailed a postcard to Rubens with the function that very evening, so that Rubens would get it first thing in the morning (the post would have been delivered and set on his desk by the time he arrived at his office in the university). Rubens probably asked Planck that very same morning: Why is it this shape?

The presentation of new data, followed by Planck’s function, was on October 17. The function fit the data, both at the low temperature and high temperature limits. Planck had been interested on the black body spectrum for a long time. He understood thermodynamics and classical electrodynamics. But it was the high-quality data of Rubens that drove his mind to find a solution. It took him a few months, and on Dec. 14 he presented the derivation of his theory where, “on an act of desperation,” he introduced the quantum of energy: the beginning of quantum mechanics.


Quantum Theory

With the turn of the 20th century, the field of physics underwent two major transformations, roughly at the same time. The first was Einstein's General Theory of Relativity, which dealt with the universal realm of physics. The second was Quantum Theory, which proposed that energy exists as discrete packets—each called a "quantum." This new branch of physics enabled scientists to describe the interaction between energy and matter down through the subatomic realm.

Einstein saw Quantum Theory as a means to describe Nature on an atomic level, but he doubted that it upheld "a useful basis for the whole of physics." He thought that describing reality required firm predictions followed by direct observations. But individual quantum interactions cannot be observed directly, leaving quantum physicists no choice but to predict the probability that events will occur. Challenging Einstein, physicist Niels Bohr championed Quantum Theory. He argued that the mere act of indirectly observing the atomic realm changes the outcome of quantum interactions. According to Bohr, quantum predictions based on probability accurately describe reality.

Niels Bohr and Max Planck, two of the founding fathers of Quantum Theory, each received a Nobel Prize in Physics for their work on quanta. Einstein is considered the third founder of Quantum Theory because he described light as quanta in his theory of the Photoelectric Effect, for which he won the 1921 Nobel Prize.

May 15, 1935: The Physical Review publishes the Einstein, Podolsky, and Rosen (EPR) paper claiming to refute Quantum Theory.

Newspapers were quick to share Einstein's skepticism of the "new physics" with the general public. Einstein's paper, "Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?" prompted Niels Bohr to write a rebuttal. Modern experiments have upheld Quantum Theory despite Einstein's objections. However, the EPR paper introduced topics that form the foundation for much of today's physics research.

Einstein and Niels Bohr began disputing Quantum Theory at the prestigious 1927 Solvay Conference, attended by top physicists of the day. By most accounts of this public debate, Bohr was the victor.


Assista o vídeo: Modelagem e Simulação Aula 07 - Processos de Nascimento-Morte (Janeiro 2022).