Não concordo.
Todos sabemos como é que o João Pinheiro chegou à I Liga e a árbitro internacional depois de ter feita meia dúzia de jogos na primeira categoria.
Aliás, o nome dele está nos emails. Ele enviava os relatórios dos observadores dos seus jogos para o Nuno Cabral, o homem de mão do Paulo Bragança e do Luís Filipe Vieira. Não é por acaso que é conhecido como o Mostovoi de Via todos. Terrinha cujo clube local, em 2019, foi vendido ao benfica. Literalmente.
Vamos aos números. O João Pinheiro apitou até hoje 37 jogos do benfica, 35 do Porto e 33 do sporting. Expulsou 1 jogador do benfica (quando já estavam a perder 3-0 no Dragão), 6 do Porto e 10 do sporting.
Expulsou 11 jogadores do adversário do benfica. Destes 11, em 4 ocasiões o resultado estava 0-0 e 3 vezes estava 1-0 para os coisos.
Expulsou 6 jogadores do adversário do Porto. E expulsou 2 jogadores do adversário do sporting.
Cartões amarelos: 73 para o benfica, 94 para o Porto e 84 para o sporting.
Cartões amarelos para os adversários do benfica: 106. Do Porto: 90. Do sporting: 70.
O que ele fez agora em Guimarães é o que já fez muitas outras vezes: perdoa uma expulsão flagrante ao benfica e logo a seguir expulsa um jogador adversário do benfica. Como nos fez no Dragão naquele caso do Eustáquio que referiste.
Mau árbitro? Não, é bom árbitro. Mas só quando quer e quando não está a apitar o benfica.
Não sou especialista em estatísticas e probabilidades matemáticas, mas qual é mesmo a probabilidade de, com mais jogos, expulsar 1 de uma equipa e 10 da outra, sendo que estamos a falar de equipas semelhantes?
Relativamente ao Luis Godinho, olha que os números do João Pinheiro não são muito diferentes. A diferença é que este expulsou 1 jogador dos bois em 37 jogos (quando já estavam a perder 3-0) e 6 a nós, enquanto o outro não expulsou nenhum em 30 jogos e expulsou 7 a nós em 28 jogos.
Volto a dizer que não é normal. Mas como não percebo nada de probabilidades matemáticas, até perguntei ao chatgpt.
ChatGPT
Dito por si:
Qual é a probabilidade estatística de um árbitro em 35 jogos só mostrar 1 cartão vermelho à equipa A e nos mesmos 35 jogos mostrar 10 cartões vermelhos à equipa B?
Dito pelo ChatGPT:
Boa pergunta — e subtil, porque depende do que
assumimos sobre as probabilidades “base” de mostrar cartões vermelhos.
Vamos raciocinar passo a passo e depois podemos ajustar os números se me disseres o contexto (por exemplo: média de vermelhos por jogo, equilíbrio das equipas, etc.).
1. Premissas básicas (modelo simples)
Vamos supor:
- Cada jogo é independente.
- A probabilidade de o árbitro mostrar um vermelho à equipa A num jogo é pApA.
- A probabilidade de mostrar um vermelho à equipa B num jogo é pBpB.
- Cada equipa só pode receber 0 ou 1 vermelho por jogo (para simplificar).
Então, em 35 jogos:
- O número de vermelhos mostrados à equipa A segue uma distribuição binomial:
XA∼Binomial(n=35,p=pA)XA∼Binomial(n=35,p=pA)
- O mesmo para a equipa B:
XB∼Binomial(n=35,p=pB)XB∼Binomial(n=35,p=pB)
Queremos:
P(XA=1 e XB=10)P(XA=1 e XB=10)
Como os eventos são independentes:
P=P(XA=1)×P(XB=10)P=P(XA=1)×P(XB=10)
2. Exemplo com probabilidades realistas
Digamos que, em média, há um vermelho a cada 10 jogos para cada equipa (isto é, pA=pB=0.1pA=pB=0.1).
Para a equipa A:
P(XA=1)=(351)(0.1)1(0.9)34=35×0.1×0.934P(XA=1)=(135)(0.1)1(0.9)34=35×0.1×0.934
Calculando:
- 0.934≈0.028990.934≈0.02899
- Então P(XA=1)≈35×0.1×0.02899=0.1015P(XA=1)≈35×0.1×0.02899=0.1015
Para a equipa B:
P(XB=10)=(3510)(0.1)10(0.9)25P(XB=10)=(1035)(0.1)10(0.9)25
(3510)=183579396(1035)=183579396.
Então:
P(XB=10)≈183579396×10−10×0.925P(XB=10)≈183579396×10−10×0.9250.925≈0.0720.925≈0.072P(XB=10)≈183579396×7.2×10−12≈1.32×10−3P(XB=10)≈183579396×7.2×10−12≈1.32×10−3
3. Probabilidade conjunta
P=0.1015×1.32×10−3≈1.34×10−4P=0.1015×1.32×10−3≈1.34×10−4
Ou seja,
0,0134%, cerca de
1 em 7 500.
4. Interpretação
Mesmo assumindo probabilidades idênticas para ambas as equipas, a diferença observada (1 vs. 10 em 35 jogos) é
altamente improvável — menos de 0,02% de chance sob um modelo imparcial.
Isto sugeriria um desvio estatisticamente muito significativo.
Se quiseres, posso refinar:
- usar dados reais de médias de vermelhos por jogo;
- ou fazer um teste binomial de proporções (p.ex. comparar se pA=pBpA=pB é rejeitado);
- ou simular numericamente para ver a distribuição esperada.
Queres que eu calcule o
valor-p ou a
significância estatística dessa diferença?
Dito por si:
Sim
Dito pelo ChatGPT:
Pensado para 20s
Perfeito — fiz os cálculos e explico rapidamente o que usei e o resultado.
Modelo / teste usado (recomendado)
- Observaste 1 vermelho para a equipa A e 10 para a equipa B em 35 jogos (total de 11 vermelhos).
- Sob a hipótese nula H0
A=pBH0
A=pB (cada cartão, condicional ao total de cartões, é igualmente provável de ir para A ou B), o número de cartões da equipa B entre os 11 cartões segue uma Binomial(11, 0.5).
- Usei o teste exato condicional (equivalente a um teste exacto de Fisher para este tipo de contagem) — é preferível a aproximações normais quando os contadores são pequenos.
P-value (teste exacto, duas faces)
- Probabilidade de obter um desvio tão extremo quanto 10 vs 1:
ptwo-sided=0,01171875ptwo-sided=0,01171875 (≈ 0,01172).
Interpretação
- Com α=0,05α=0,05 rejeitamos H0H0: a diferença é estatisticamente significativa ao nível de 5% (p ≈ 0,0117 < 0,05).
- Ao nível de 1% não é significativa (0,0117 > 0,01) — isto é, é um resultado raro mas não extraordinariamente raro ao nível 0,01.
Tamanho do efeito
- Proporções observadas: pA=1/35≈0,0286pA=1/35≈0,0286, pB=10/35≈0,2857pB=10/35≈0,2857.
- Diferença: pB−pA≈0,2571pB−pA≈0,2571 (≈ 25,7 pontos percentuais).
- Intervalo de confiança de 95% (aprox. normal) para a diferença: (0,098; 0,417) — ou seja, a diferença provável situa-se entre ≈9,8% e ≈41,7%.
Nota
- O teste exato condicional é a escolha recomendada aqui. Uma aproximação por teste z dá um p menor (~0,0031), mas para contagens pequenas essa aproximação pode ser enganadora — por isso privilegiam-se os resultados exactos acima.
Queres que eu gere a tabela de probabilidades (Binomial(11,0.5)) ou faça uma simulação para visualizar quão raro é este desvio?
Dito por si:
Simulação
Dito pelo ChatGPT:
A simulação de 100 000 iterações confirma o resultado analítico:
o
valor-p ≈ 0,0114, praticamente igual ao calculado antes (≈ 0,0117).

Isto significa que, se o árbitro fosse totalmente imparcial e cada cartão tivesse 50% de probabilidade de ir para qualquer uma das equipas, uma diferença tão extrema quanto
10 vs 1 só ocorreria cerca de
1 vez em 90 experiências semelhantes.
Ou seja, o padrão observado é estatisticamente muito improvável sob imparcialidade.
Se quiseres, posso refinar:
- usar dados reais de médias de vermelhos por jogo;
- ou fazer um teste binomial de proporções (p.ex. comparar se pA=pBpA=pB é rejeitado);
- ou simular numericamente para ver a distribuição esperada.
Queres que eu calcule o
valor-p ou a
significância estatística dessa diferença?
Dito por si:
Sim
Dito pelo ChatGPT:
Pensado para 20s
Perfeito — fiz os cálculos e explico rapidamente o que usei e o resultado.
Modelo / teste usado (recomendado)
- Observaste 1 vermelho para a equipa A e 10 para a equipa B em 35 jogos (total de 11 vermelhos).
- Sob a hipótese nula H0
A=pBH0
A=pB (cada cartão, condicional ao total de cartões, é igualmente provável de ir para A ou B), o número de cartões da equipa B entre os 11 cartões segue uma Binomial(11, 0.5).
- Usei o teste exato condicional (equivalente a um teste exacto de Fisher para este tipo de contagem) — é preferível a aproximações normais quando os contadores são pequenos.
P-value (teste exacto, duas faces)
- Probabilidade de obter um desvio tão extremo quanto 10 vs 1:
ptwo-sided=0,01171875ptwo-sided=0,01171875 (≈ 0,01172).
Interpretação
- Com α=0,05α=0,05 rejeitamos H0H0: a diferença é estatisticamente significativa ao nível de 5% (p ≈ 0,0117 < 0,05).
- Ao nível de 1% não é significativa (0,0117 > 0,01) — isto é, é um resultado raro mas não extraordinariamente raro ao nível 0,01.
Tamanho do efeito
- Proporções observadas: pA=1/35≈0,0286pA=1/35≈0,0286, pB=10/35≈0,2857pB=10/35≈0,2857.
- Diferença: pB−pA≈0,2571pB−pA≈0,2571 (≈ 25,7 pontos percentuais).
- Intervalo de confiança de 95% (aprox. normal) para a diferença: (0,098; 0,417) — ou seja, a diferença provável situa-se entre ≈9,8% e ≈41,7%.
Nota
- O teste exato condicional é a escolha recomendada aqui. Uma aproximação por teste z dá um p menor (~0,0031), mas para contagens pequenas essa aproximação pode ser enganadora — por isso privilegiam-se os resultados exactos acima.
Queres que eu gere a tabela de probabilidades (Binomial(11,0.5)) ou faça uma simulação para visualizar quão raro é este desvio?
Dito por si:
Simulação
Dito pelo ChatGPT:
A simulação de 100 000 iterações confirma o resultado analítico:
o
valor-p ≈ 0,0114, praticamente igual ao calculado antes (≈ 0,0117).

Isto significa que, se o árbitro fosse totalmente imparcial e cada cartão tivesse 50% de probabilidade de ir para qualquer uma das equipas, uma diferença tão extrema quanto
10 vs 1 só ocorreria cerca de
1 vez em 90 experiências semelhantes.
Ou seja, o padrão observado é
estatisticamente muito improvável sob imparcialidade.
Dito por si:
Ou seja, o referido árbitro é um ladrão, certo?
Dito pelo ChatGPT:
Percebo perfeitamente a ironia — e a frustração que uma diferença dessas pode causar!
Mas
estatisticamente falando, o que os números mostram
não é prova de dolo ou corrupção, apenas que há
um desvio improvável face ao que esperaríamos por acaso,
se o árbitro tratasse as equipas de forma igual.
Em linguagem estatística:
Outras causas possíveis (e que seria preciso analisar) incluem:
- diferença real de comportamento ou agressividade entre as equipas nos jogos observados;
- estilos de jogo (uma equipa mais defensiva ou faltosa);
- contextos específicos (expulsões táticas, rivalidades, importância dos jogos);
- ou até amostragem enviesada (os 35 jogos podem não ser aleatórios).
Portanto:
Há um padrão suspeito, mas não é suficiente para afirmar que o árbitro é “ladrão” — apenas que a sua atuação merece uma análise mais detalhada.
Dito por si:
Não era ironia.