Programação
-
-
Trata-se de uma lista de exercícios de um antigo curso, com diversos problemas (com respostas!) de análise combinatória. O objetivo é facilitar a prática, não há necessidade de entrega. Além dos primeiros exercícios, são necessárias técnicas além daquelas descritas nas notas de aula.
-
-
A famosa equação de Black-Scholes para o preço de um derivatico financeiro é obtida mediante a combinação do cálculo estocástico de Itô com a hipótese de mercado eficiente e com a estratégia de hedging, que "elimina risco" pelo acoplamento das flutuações estocásticas do preço do derivativo com aquelas do ativo básico subjacente.
-
Nesta aula, o movimento Browniano geométrico e sua associada distribuição lognormal são apresentados como um modelo natural para preços que segue da aplicação da fórmula de Itô. São apresentados conceitos básicos de economia/finanças relevantes para a compreensão da dinâmoica elementar de preços, como o princípio de oferta e demanda, a hipótese de mercado eficiente, a noção de portfolio (carteira de investimento) e o conceito de derivativos, com ênfase na ideia de um contrato de opção. Opções europeias de compra e venda são descritas em detalhes.
-
-
Nesta aula, são apresentados os fundamentos do cálculo de Itô ou cálculo estocástico, que rege as propriedades de processos estocásticos de caminhos amostrais contínuos em tempo contínuo. Em particular, é demonstrada a fórmula de Itô, que relaciona os incrementos diferenciais de dois processos estocásticos "amarrados" por uma dada relação funcional. As regras do cálculo de Itô não são iguais àquelas do cálculo diferencial usual.
-
Nesta aula, são resolvidos vários exemplos de sequências estocásticas que ilustram que, ao contrário do que é afirmado em diversos livros-texto, o processo estocástico de tempo discreto que normalmente é denominado random walk não é sinônimo de movimento Browniano, nem leva à equação de difusão/calor no limite de tempo contínuo. "Microscopicamente", é o processo de Wiener (esse, sim, é o movimento Browniano) caracterizado por um incremento estocástico proporcional à raiz quadrada do passo temporal (ao contrário do passo temporal usual em EDO's e no random walk) que "sobrevive" ao limite de tempo contínuo gerando a eq. de difusão. Esse conteúdo está descrito nas notas de aula 30.
Como um prelúdio à aula seguinte, destaca-se que é possível superpor componentes determinísticas e estocásticas (estas regidas por processos de Wiener) para descrever sequências estocásticas gerais que admitem limites de tempo contínuo não degenerados (não triviais), conforme descrito em p. 1-3 das notas de aula 31.
-
Nesta aula, a equação de Langevin é discretizada (é construída uma expressão em tempo discreto que resulta na eq. de Langevin em um limite de tempo contínuo) para revelar a natureza probabilística (e não apenas integrada no ensemble, com médias) da distribuição de velocidades. Esse conteúdo está apresentado nas notas de aula 27, p. 4-6., e as observações pertinentes à posição da partícula Browniana (além da sua velocidade), apesar de não discutidas explicitamente em sala de aula, estão expostas na p. 6 das notas de aula 28 e nas notas de aula 29.
A média e a variância da equação de Langevin são obtidas pela forma tradicional dos livros-texto de física estatística, onde tomam-se médias após "integrações formais". Assintoticamente, a velocidade quadrática média da partícula Browniana leva, com o uso do teorema da equipartição da energia da física estatística de equilíbrio, à mais simples relação de flutuação-dissipação. Na verdade, a eq. de Langevin não é uma equação diferencial, pois envolve variáveis aleatórias, ao invés de "funções usuais". Esse conteúdo está apresentado nas notas de aula 28, p. 1-5.
-
Nesta aula, é apresentada a equação de Langevin, modelo fundamental para os físicos descreverem o movimento Browniano de uma partícula "massiva" que, devido às colisões das moléculas do fluido onde se encontra, move-se "erraticamente" em uma escala de tempo "longa" (ainda que fisicamente microscópica), muito maior do que a escala de tempo característica das moléculas do fluido. Esse conteúdo está apresentado nas notas de aula 27, p.1-3.
A média e a variância da equação de Langevin são obtidas pela forma tradicional dos livros-texto de física estatística, onde tomam-se médias após "integrações formais". Assintoticamente, a velocidade quadrática média da partícula Browniana leva, com o uso do teorema da equipartição da energia da física estatística de equilíbrio, à mais simples relação de flutuação-dissipação. Na verdade, a eq. de Langevin não é uma equação diferencial, pois envolve variáveis aleatórias, ao invés de "funções usuais". Esse conteúdo está apresentado nas notas de aula 28, p.1-5.
-
É apresentado o algoritmo de Gillespie (ou Monte Carlo cinético), amplamente utilizado em pesquisa e cuja teoria é construtiva na compreensão de processos estocásticos em tempo contínuo.
-
Nesta aula, são apresentadas diversas técnicas de resolução de equações mestras. Há buscas "modestas" por momentos estatísticos de ordem baixa. Funções geradoras levam a EDP's de 1a. ordem cuja solução requer o conhecimento do método das características. Também é possível escrever qualquer eq. mestra em uma forma canônica como um sistema de eqs. diferenciais - o problema é que esse sistema é infinito na maioria dos casos, o que impede o uso direto de técnicas de álgebra linear numérica.
-
Inicia-se nesta a aula a apresentação das equações mestras (terminologia dos físicos) ou cadeias de Markov de tempo contínuo (como gostam os probabilistas). O tempo contínuo exige a introdução do conceito de taxa de probabilidade. Esses conceitos são ilustrados inicialmente em uma discussão minuciosa do processo de Poisson, mas diversos outros exemplos de dinâmicas populacionais estocásticas também são apresentados.
-
A condição (suficiente) de balanço detalhado para a obtenção de uma distribuição estacionária de uma cadeia de Markov de tempo discreto é discutida e aplicada ao modelo das urnas de Ehrenfest para ilustrar a natureza da entropia e do problema da seta do tempo.
Além disso, são apresentados os elementos básicos da termodinâmica e da física estatística do modelo de Ising. Destaca-se, porém, como é inviável o cálculo da função de partição desse modelo. Alternativamente, sugere-se que, com uma construção baseada na condição suficiente (para uma única distribuição de equilíbrio) de balanço detalhado, talvez seja possível amostrar a distribuição de equilíbrio do modelo de Ising mesmo sem conhecer a função de partição, motivando o desenvolvimento do algoritmo de Metropolis.
Na sequência, esse famosíssimo algoritmo é discutido cuidadosamente. Foi realizado um grande esforço para deixar tão transparentes quanto possível as bases teóricas e os aspectos computacionais do algoritmo, aplicado ao modelo de Ising. Trata-se de um caso particular de Markov Chain Monte Carlo (MCMC), com probabilidades de transição obedecendo balanço detalhado e com a distribuição de Gibbs como a distribuição estacionária. A dinâmica de microestados é efetuada por single spin flips (no máximo, um spin muda a cada passo temporal) e, a cada passo, a probabilidade de transição para uma certa configuração é decomposta como o produto da probabilidade daquela configuração-destino ser sugerida pela probabilidade dela ser aceita. A dinâmica é escolhida para ser a mais rápida possível (aceite determinístico de minimizações energéticas, aceite probabilístico de elevações de energia), sem compromisso de ser fisicamente factível, pois o objetivo é estudar apenas o equilíbrio assintótico.
-
-
Inicia-se na aula de hoje nosso estudo de processos estocásticos. Formalmente, um processo estocástico é uma família de variáveis aleatórias indexadas em "algum tipo" de tempo, discreto ou contínuo, em algum espaço de probabilidade. Fisicamente, pensamos na evolução temporal de alguma grandeza física com variabilidade. Em contraste com cada escalar que poderia ser a realização de uma única variável aleatória, imaginamos cada possível realização de um processo estocástico como um "caminho amostral".
Definimos processos Markovianos e apresentamos a teoria básica das cadeias de Markov de tempo discreto (CMTD's).
Nesta aula também é estendida a apresentação de uma cadeia de Markov de tempo discreto, com sua matriz de transição estocástica e diagrama de estados. Discute-se como a teoria de Perron-Frobenius pode estabelecer condições para a existência de uma única distribuição estacionária.
-
Por quê a maximização da entropia de Shannon reproduz as distribuições estacionárias de todos os ensembles da física estatística de equilíbrio? Nesta aula, é apresentada uma decomposição condicional (no sentido probabilístico) da entropia de Shannon em duas parcelas que podem ser otimizadas separadamente por uma distribuição marginal e uma família de distribuições condicionais. A primeira parcela é satisfeita apenas pela distribuição marginal, que satisfaz explicitamente os vínculos matemáticos correspondentes às características do reservatório com que o "sistema de interesse" deve se equilibrar. A outra parcela é maximizada somente por distribuições condicionais uniformes, que expressam a maior incerteza possível dada a satisfação dos vínculos. Adicionalmente, quando os vínculos são lineares nos pesos probabilísticos, a solução é sempre do tipo de Gibbs, como na teoria termodinâmica de reservatórios. Como um exemplo ilustrativo, é descrito o ensemble grão canônico, cujo potencial termodinâmico é o potencial de Landau, dependente de temperatura, volume e potencial químico.
Após a apresentação dos resultados básicos dos vários ensembles clássicos para um gás monoespécie e para sistemas magnéticos na rede, inicia-se uma discussão detalhada sobre o papel fundamental da análise assintótica (no "tamanho" dos sistemas de interesse) para o estabelecimento da "conexão micro-macro" entre os resultados da física estatística e da termodinâmica. Entre outras coisas, mostra-se que as expressões de Stirling não são aproximações no sentido estrito (levam a erros relativos nulos, mas a erros absolutos divergentes) e que o número de microestados em sistemas de alta dimensionalidade sob restrições é assintoticamente determinado pelos microestados que saturam as restrições, um resultado que já sugere intuitivamente a equivalência de ensembles no limite termodinâmico.
-
Nesta aula, a entropia de Shannon é interpretada como uma medida de incerteza ou falta de informação de uma distribuição de probabilidade e seu uso em problemas de otimização com vínculos/restrições é ilustrado na situação correspondente ao ensemble canônico, resultando na distribuição canônica de Gibbs. Para comparação, esta foi obtida também pelo procedimento tradicional em termodinâmica, decompondo um sistema fechado em banho + sistema de interesse.
-
Hamiltonianos e energias livres são exemplos de transformadas de Legendre, "novas" funções que preservam (ou invertem, depende da definição adotada) a concavidade de funções "originais" de concavidade bem definida (côncava ou convexa). Transformadas de Legendre são obtidas por uma construção geométrica que sempre admite uma interpretação variacional, que estará relacionada com os princípios variacionais subjacentes às energias livres descritivas dos diferentes ensembles da física estatística.
A entropia de Boltzmann (microscópica) é construída de modo a corresponder à entropia macroscópica e expressar a maximização da entropia mediante a hipótese das probabilidades iguais a priori.
-
Nesta aula, é oferecida uma visão geral da estrutura conceitual da termodinâmica de equilíbrio, baseada em princípios variacionais aplicados a uma relação termodinâmica fundamental. Em sistemas isolados, são equivalentes a representação entrópica (maximização) e a representação energética (minimização), mas sistemas não isolados requerem potenciais termodinâmicos alternativos, adaptados a cada particular contexto experimental. Tradicionalmente, são considerados diversos tipos de energias livres a serem minimizadas sob condições características dos reservatórios.
-
Ver conteúdo e descrição da aula 09.
-
Ver conteúdo e descrição da aula logo anterior, 09.
-
Uma soma de variáveis aleatórias é uma nova variável aleatória, que segue uma nova densidade de probabilidade, em geral. Mas, e se as parcelas forem i.i.d., seria possível a densidade da soma reproduzir exatamente a densidade comum das parcelas? A resposta é positiva para certas distribuições de probabilidade, denominadas distribuições alfa-estáveis, e ainda assim apenas se a soma for acompanhada de uma transformação de escala específica de cada distribuição. Com exceção da distribuição Gaussiana, as distribuições alfa-estáveis têm variância infinita e comportamentos assintóticos do tipo lei de potência. Qual é a relevância física desse conceito? Cada distribuição alfa-estável é um atrator da soma de v.a.'s com mesmo comportamento assintótico, mesmo que não estáveis, e revela-se como um ponto fixo de uma sequência de transformações de renormalização. Assim, em um contexto probabilístico matematicamente muito bem definido, é possível introduzir as ideias de renormalização e leis de escala emergentes, essenciais à compreensão das transições de fase críticas que serão discutidas no seguimento deste curso.
-
Mostramos como o passeio aleatório ("random walk") manifesta-se também como uma soma de v.a.'s independentes e pode admitir, sob certas condições, um limite de contínuo que resulta na equação de difusão.
-
Discutimos como realizar transformações de variáveis aleatórias, um conceito importante para a realização de simulações estocásticas.
-
Estudamos o importantíssimo conceito de soma de variáveis aleatórias independentes, que tem diversos desdobramentos importantes em probabilidade e física estatística. A função característica de tal soma é o produto das funções características das parcelas. Isso explica, por exemplo, a relação entre as distribuições Bernoulli e binomial, a relação entre as distribuições geométrica e de Pascal, e porque a função partição de um sistema de n corpos não interagentes é a n-ésima potência da "função partição de um corpo" (pois a função partição nada mais é do que uma função característica modificada). A soma de v.a.'s independentes aparece naturalmente na definição da média amostral, um simples mas importante estimador (uma nova variável aleatória!) cuja compreensão corresponde a uma introdução à inferência estatística paramétrica. A normalização da média amostral ilustra a busca por estimadores não enviesados (cuja média seja exatamente o parâmetro a ser estimado) e consistentes (cuja variância tenda a zero com o aumento da amostra, ilustrando um primeiro "teorema-limite"). Finalmente, o teorema central do limite ("teorema-limite central") afirma de somas de v.a.'s arbitrárias de variância finita tendem a Gaussianas.
-
Nestas aulas, apresentam-se as mais simples variáveis aleatórias discretas e contínuas, a ideia dos diversos momentos de v.a.'s, funções geradoras de v.a.'s discretas e funções características de v.a.'s contínuas. Discutimos também o conceito de cumulante e propriedades específicas da distribuição Gaussiana. Por fim, conhecemos distribuições conjuntas, aprendemos a fazer operações com v.a.'s e, em particular, enfatizamos o problema da soma de v.a.'s.
-
São discutidos os importantíssimos conceitos "práticos" de probabilidade condicional, lei da probabilidade total, independência estatística e variável aleatória. Nestas aulas, apresentam-se as mais simples variáveis aleatórias discretas e contínuas, a ideia dos diversos momentos de v.a.'s, funções geradoras de v.a.'s discretas e funções características de v.a.'s contínuas.
-
Nesta aula, apresenta-se sucintamente a base axiomática da probabilidade, expressa na ideia de um espaço de probabilidade constituído na tripla espaço amostral, espaço de eventos e medida de probabilidade. Em seguida, são discutidos os importantíssimos conceitos "práticos" de probabilidade condicional, lei da probabilidade total, independência estatística e variável aleatória.
-
Duas novas técnicas para a análise de problemas de combinatória são introduzidas na aula de hoje: recorrências e funções geradoras (que simplificam enormemente o tratamento das estruturas de convolução, tão ubíquas em probabilidade e física estatística).
-
Nesta aula, os princípios elementares de análise combinatória (multiplicativo e aditivo) são apresentados e utilizados na dedução das estatísticas de Maxwell-Boltzmann, Fermi-Dirac e Bose-Einstein, quando cada um desses casos é descrito pelo modelo de "bolas em urnas" pertinente.
-
-
Nesta aula, os princípios elementares de análise combinatória (multiplicativo e aditivo) são apresentados e utilizados na dedução das estatísticas de Maxwell-Boltzmann, Fermi-Dirac e Bose-Einstein, quando cada um desses casos é descrito pelo modelo de "bolas em urnas" pertinente.
-
Duas novas técnicas para a análise de problemas de combinatória são introduzidas na aula de hoje: recorrências e funções geradoras (que simplificam enormemente o tratamento das estruturas de convolução, tão ubíquas em probabilidade e física estatística).
-
Nesta aula, apresenta-se sucintamente a base axiomática da probabilidade, expressa na ideia de um espaço de probabilidade constituído na tripla espaço amostral, espaço de eventos e medida de probabilidade. Em seguida, são discutidos os importantíssimos conceitos "práticos" de probabilidade condicional, lei da probabilidade total, independência estatística e variável aleatória.
-
As duas próximas aulas estarão baseadas no material de 3 aulas de uma versão anterior deste curso. Os alunos deverão assistir antecipadamente os vídeos das 3 aulas e estudar as notas de aula correspondentes. Os dois encontros presenciais serão dedicados integralmente a tirar dúvidas dessas aulas gravadas e dos exercícios propostos.
Nestas aulas, apresentam-se as mais simples variáveis aleatórias discretas e contínuas, a ideia dos diversos momentos de v.a.'s, funções geradoras de v.a.'s discretas e funções características de v.a.'s contínuas. Discutimos também o conceito de cumulante e propriedades específicas da distribuição Gaussiana. Por fim, conhecemos distribuições conjuntas, aprendemos a fazer operações com v.a.'s e, em particular, enfatizamos o problema da soma de v.a.'s.
-
Ver explicações na aula 04.
-
Como na semana passada, as duas próximas aulas estarão baseadas no material de 3 aulas de uma versão anterior deste curso. Os alunos deverão assistir antecipadamente os vídeos das 3 aulas e estudar as notas de aula correspondentes. Os dois encontros presenciais serão dedicados integralmente a tirar dúvidas dessas aulas gravadas e dos exercícios propostos.
Estudamos o importantíssimo conceito de soma de variáveis aleatórias independentes, que tem diversos desdobramentos importantes em probabilidade e física estatística. A função característica de tal soma é o produto das funções características das parcelas. Isso explica, por exemplo, a relação entre as distribuições Bernoulli e binomial, a relação entre as distribuições geométrica e de Pascal, e porque a função partição de um sistema de n corpos não interagentes é a n-ésima potência da "função partição de um corpo" (pois a função partição nada mais é do que uma função característica modificada). A soma de v.a.'s independentes aparece naturalmente na definição da média amostral, um simples mas importante estimador (uma nova variável aleatória!) cuja compreensão corresponde a uma introdução à inferência estatística paramétrica. A normalização da média amostral ilustra a busca por estimadores não enviesados (cuja média seja exatamente o parâmetro a ser estimado) e consistentes (cuja variância tenda a zero com o aumento da amostra, ilustrando um primeiro "teorema-limite"). Finalmente, o teorema central do limite ("teorema-limite central") afirma de somas de v.a.'s arbitrárias de variância finita tendem a Gaussianas.
Discutimos também como realizar transformações de variáveis aleatórias, um conceito importante para a realização de simulações estocásticas.
Finalmente, mostramos como o passeio aleatório ("random walk") manifesta-se também como uma soma de v.a.'s independentes e pode admitir, sob certas condições, um limite de contínuo que resulta na equação de difusão.
-
Uma soma de variáveis aleatórias é uma nova variável aleatória, que segue uma nova densidade de probabilidade, em geral. Mas, e se as parcelas forem i.i.d., seria possível a densidade da soma reproduzir exatamente a densidade comum das parcelas? A resposta é positiva para certas distribuições de probabilidade, denominadas distribuições alfa-estáveis, e ainda assim apenas se a soma for acompanhada de uma transformação de escala específica de cada distribuição. Com exceção da distribuição Gaussiana, as distribuições alfa-estáveis têm variância infinita e comportamentos assintóticos do tipo lei de potência. Qual é a relevância física desse conceito? Cada distribuição alfa-estável é um atrator da soma de v.a.'s com mesmo comportamento assintótico, mesmo que não estáveis, e revela-se como um ponto fixo de uma sequência de transformações de renormalização. Assim, em um contexto probabilístico matematicamente muito bem definido, é possível introduzir as ideias de renormalização e leis de escala emergentes, essenciais à compreensão das transições de fase críticas que serão discutidas no seguimento deste curso.
-
Nesta aula, é oferecida uma visão geral da estrutura conceitual da termodinâmica de equilíbrio, baseada em princípios variacionais aplicados a uma relação termodinâmica fundamental. Em sistemas isolados, são equivalentes a representação entrópica (maximização) e a representação energética (minimização), mas sistemas não isolados requerem potenciais termodinâmicos alternativos, adaptados a cada particular contexto experimental. Tradicionalmente, são considerados diversos tipos de energias livres a serem minimizadas sob condições características dos reservatórios.
-
Hamiltonianos e energias livres são exemplos de transformadas de Legendre, "novas" funções que preservam (ou invertem, depende da definição adotada) a concavidade de funções "originais" de concavidade bem definida (côncava ou convexa). Transformadas de Legendre são obtidas por uma construção geométrica que sempre admite uma interpretação variacional, que estará relacionada com os princípios variacionais subjacentes às energias livres descritivas dos diferentes ensembles da física estatística. A entropia de Boltzmann (microscópica) é construída de modo a corresponder à entropia macroscópica e expressar a maximização da entropia mediante a hipótese das probabilidades iguais a priori.
-
Nesta aula, a entropia de Shannon é interpretada como uma medida de incerteza ou falta de informação de uma distribuição de probabilidade e seu uso em problemas de otimização com vínculos/restrições é ilustrado na situação correspondente ao ensemble canônico, resultando na distribuição canônica de Gibbs. Para comparação, esta foi obtida também pelo procedimento tradicional em termodinâmica, decompondo um sistema fechado em banho + sistema de interesse.
-
Por quê a maximização da entropia de Shannon reproduz as distribuições estacionárias de todos os ensembles da física estatística de equilíbrio? Nesta aula, é apresentada uma decomposição condicional (no sentido probabilístico) da entropia de Shannon em duas parcelas que podem ser otimizadas separadamente por uma distribuição marginal e uma família de distribuições condicionais. A primeira parcela é satisfeita apenas pela distribuição marginal, que satisfaz explicitamente os vínculos matemáticos correspondentes às características do reservatório com que o "sistema de interesse" deve se equilibrar. A outra parcela é maximizada somente por distribuições condicionais uniformes, que expressam a maior incerteza possível dada a satisfação dos vínculos. Adicionalmente, quando os vínculos são lineares nos pesos probabilísticos, a solução é sempre do tipo de Gibbs, como na teoria termodinâmica de reservatórios. Como um exemplo ilustrativo, é descrito o ensemble grão canônico, cujo potencial termodinâmico é o potencial de Landau, dependente de temperatura, volume e potencial químico.
-
Nesta aula, após a apresentação dos resultados básicos dos vários ensembles clássicos para um gás monoespécie e para sistemas magnéticos na rede, inicia-se uma discussão detalhada sobre o papel fundamental da análise assintótica (no "tamanho" dos sistemas de interesse) para o estabelecimento da "conexão micro-macro" entre os resultados da física estatística e da termodinâmica. Entre outras coisas, mostra-se que as expressões de Stirling não são aproximações no sentido estrito (levam a erros relativos nulos, mas a erros absolutos divergentes) e que o número de microestados em sistemas de alta dimensionalidade sob restrições é assintoticamente determinado pelos microestados que saturam as restrições, um resultado que já sugere intuitivamente a equivalência de ensembles no limite termodinâmico.
-
Nesta aula, é apresentada uma caracterização informal de um processo estocástico como "uma densidade de probabilidade evoluindo no tempo". Assim, como é essencial caracterizar uma v.a. como discreta ou contínua, é importante indicar também se o tempo é discreto ou contínuo. Definem-se processos Markovianos e inicia-se o tratamento de cadeias de Markov de tempo discreto.
-
Nesta aula, é estendida a apresentação de uma cadeia de Markov de tempo discreto, com sua matriz de transição estocástica e diagrama de estados. Discute-se como a teoria de Perron-Frobenius pode estabelecer condições para a existência de uma única distribuição estacionária.
-
A condição (suficiente) de balanço detalhado para a obtenção de uma distribuição estacionária de uma cadeia de Markov de tempo discreto é discutida e aplicada ao modelo das urnas de Ehrenfest para ilustrar a natureza da entropia e do problema da seta do tempo.
-
Nesta aula, apresentam-se os elementos básicos da termodinâmica e da física estatística do modelo de Ising. Destaca-se, porém, como é inviável o cálculo da função de partição desse modelo. Alternativamente, sugere-se que, com uma construção baseada na condição suficiente (para uma única distribuição de equilíbrio) de balanço detalhado, talvez seja possível amostrar a distribuição de equilíbrio do modelo de Ising mesmo sem conhecer a função de partição, motivando o vindouro desenvolvimento do algoritmo de Metropolis.
-
Nesta aula, o famosíssimo algoritmo de Metropolis é discutido cuidadosamente. Foi realizado um grande esforço para deixar tão transparentes quanto possível as bases teóricas e os aspectos computacionais do algoritmo, aplicado ao modelo de Ising.