Vídeo: Data Fundamentals - MSc in Data Science 2024
O Modelo Markov é um modelo estatístico que pode ser usado em análises preditivas que dependem fortemente da teoria da probabilidade. (É o nome de um matemático russo cuja principal pesquisa foi na teoria da probabilidade.)
Aqui está um cenário prático que ilustra como funciona: Imagine que você quer prever se o Team X ganhará o jogo de amanhã. A primeira coisa a fazer é coletar estatísticas anteriores sobre o Team X. A questão que pode surgir é o quão longe você deve ir no histórico?
Suponhamos que você conseguiu alcançar os últimos 10 resultados do jogo passado em sequência. Você quer saber a probabilidade de o time X vencer o próximo jogo, dado os resultados dos últimos 10 jogos.
O problema é que, quanto mais atrasado no histórico você quer ir, mais difícil e mais complexo será o cálculo da coleta de dados e da probabilidade.
Acredite ou não, o modelo de Markov simplifica a sua vida, fornecendo-lhe a Assinatura de Markov, , que se parece com isso quando você escreve em palavras:
A probabilidade de um evento acontecer, dado n eventos passados, é aproximadamente igual à probabilidade de que tal evento aconteça apenas no último evento passado.
Escrito como uma fórmula, a Assunção de Markov parece assim:
De qualquer forma, a Assunção de Markov significa que você não precisa ir muito longe no histórico para prever o resultado de amanhã. Você pode usar o evento anterior mais recente. Isso é chamado de previsão de Markov de primeira ordem porque você está considerando apenas o último evento para prever o evento futuro.
A segunda previsão de Markov inclui apenas os dois últimos eventos que acontecem em sequência. A partir da equação dada, a seguinte equação amplamente utilizada também pode ser derivada:
Esta equação visa calcular a probabilidade de que alguns eventos aconteçam em sequência: evento evento 1 após 2 , e assim por diante. Essa probabilidade pode ser calculada multiplicando a probabilidade de cada evento t (dado o evento anterior a ele) pelo próximo evento na seqüência. Por exemplo, suponha que você preveja a probabilidade de o Team X ganhar, depois perde e, em seguida, os laços.
Veja como funcionaria um modelo preditivo típico baseado em um modelo de Markov. Considere o mesmo exemplo: suponha que você queira prever os resultados de um jogo de futebol a ser jogado pelo Team X. Os três resultados possíveis - chamados estados - são vitória, perda ou empate.
Suponha que você tenha coletado dados estatísticos anteriores sobre os resultados dos jogos de futebol da equipe X e que o time X perdeu seu jogo mais recente. Você quer prever o resultado do próximo jogo de futebol. É tudo sobre adivinhar se o Team X vai ganhar, perder ou empatar - dependendo apenas de dados de jogos passados. Então, veja como você usa um modelo de Markov para fazer essa previsão.
-
Calcule algumas probabilidades com base nos dados passados.
Por exemplo, quantas vezes o Team X perdeu jogos? Quantas vezes o Team X ganhou jogos? Por exemplo, imagine se Team X ganhou 6 jogos em dez jogos no total. Então, o time X ganhou 60% do tempo. Em outras palavras, a probabilidade de ganhar pelo time X é de 60 por cento.
-
Calcule a probabilidade de uma perda, e então a probabilidade de uma gravata, da mesma maneira.
-
Use a equação de probabilidade Naïve Bayes para calcular probabilidades como a seguinte:
-
A probabilidade de que o time X vença, dado que a equipe X perdeu o último jogo.
-
A probabilidade de o Team X perder, uma vez que o Team X ganhou o último jogo.
-
-
Calcule as probabilidades para cada estado (ganhar, perder ou amarrar).
-
Supondo que a equipe joga apenas um jogo por dia, as probabilidades são as seguintes:
-
P (Win | Loss) é a probabilidade de que o Team X vença hoje, já que perdeu ontem.
-
P (Win | Tie) é a probabilidade de que o Team X vença hoje, já que está empatado ontem.
-
P (Win | Win) é a probabilidade de o Team X vencer hoje, dado que ganhou ontem.
-
-
Usando as probabilidades calculadas, crie um gráfico.
Um círculo neste gráfico representa um possível estado que o Team X poderia atingir em qualquer momento (ganho, perda, empate); os números nas setas representam as probabilidades de que o Team X possa se mover de um estado para outro.
Por exemplo, se o Team X acabou de vencer o jogo de hoje (seu estado atual = vitória), a probabilidade de o time vencer novamente é de 60%; a probabilidade de perderem o próximo jogo é de 20% (caso em que eles se movem do estado atual = win para o estado futuro = perda).
Suponha que você queira conhecer as chances de o Team X ganhar dois jogos consecutivos e perder o terceiro. Como você pode imaginar, essa não é uma previsão direta de fazer.
No entanto, usando o gráfico que acabamos de criar e o pressuposto de Markov, você pode facilmente prever as chances de ocorrência desse evento. Você começa com o estado da vitória, percorre o estado da vitória novamente e grava 60%; então você muda para o estado de perda e grava 20%.
As chances de o Team X ganhar duas vezes e perder o terceiro jogo tornam-se simples de calcular: 60 por cento vezes 60 por cento 20 por cento, que é 60 por cento * 60 por cento * 20 por cento, o que equivale a 72 por cento.
Então, quais são as chances de que o Team X vença, depois gravar e depois perder duas vezes depois disso? A resposta é de 20% (passando do estado da vitória para o estado de empate) em 20% (movendo-se do empate para a perda), 35% (movendo-se de perda para perda) 35% (movendo-se de perda para perda). O resultado é de 49%.