Tienes muchas maneras de pensar en esto:
Primero, si suponemos que lanzar una moneda es un evento independiente, entonces no, cada lanzamiento arrojará la misma probabilidad de obtener cara / cruz. Entonces nada cambia.
En segundo lugar, puede sentir que (esto es lo que siento intuitivamente) la moneda debe terminar con cola la próxima vez, ya que supone que la moneda es justa y los lanzamientos son independientes, y la probabilidad de lanzar 10 veces terminará con 10 caras será 0.5 ^ 10 .. muy pequeña. ¿Cómo pudo pasar eso? ¡Hasta cierto punto, todavía me siento así! Pero, una forma de pensar sobre esto con una probabilidad condicional es que ya ocurrieron 99 cara a cara, es decir, 0.05 ^ 9 de probabilidad. En otras palabras, estás en el mundo que no es justo (al menos cuando arrojas monedas) y en lugar de creer que es justo, probablemente necesites reconsiderar tu suposición.
Ahora, abandonamos una suposición ingenua de que la moneda es justa, pero aún creemos que los lanzamientos son independientes. Entonces, otra forma de pensar en esto es usar un tipo de modelo estadístico y teoría. Hay una distribución llamada distribución geométrica que modela casi exactamente lo mismo que pides. Nuestra pregunta es encontrar la probabilidad de lanzar cara / cola después de n rastros.
- ¿Sería útil crear y publicar un solucionador automático para un popular juego de rompecabezas?
- ¿Qué número viene después en esta secuencia 5,14,30,55,91?
- Cómo resolver el problema del rompecabezas de los tres hermanos
- ¿Cómo podría resolver este rompecabezas de Sudoku?
- Hoy era el cumpleaños de Sally, y sus amigos decidieron sorprenderla con un pastel de chocolate. Durante la celebración, ella asesinó a todos sus amigos. Entonces, ¿por qué los mató Sally?
- Una forma de hacer esto es la máxima probabilidad, utilizando la media de la muestra para estimar la probabilidad de lanzar cabezas. Supongamos que p denota la probabilidad de lanzar cabezas y después de 99 pistas tenemos una estimación p = 99/99 = 1.
- Otra forma es usar la idea bayesiana. En lugar de pensar que p es un valor constante, suponemos que p sigue una distribución. Dado que la distribución Beta es la distribución previa conjugada para el parámetro p en la distribución geométrica (es decir, creemos que p sigue la distribución beta aquí), creemos que p ~ Beta (alfa + n, beta + suma (k_i)) . alfa y beta son parámetros de distribución anteriores, mientras que n y k_i pueden obtenerse mediante nuestros senderos. Haciendo referencia a la respuesta de David Joyce, cuando lanzas diez veces y todas las cabezas arriba (n = 10), estiman p = 0.93893 . En lugar de abandonar el supuesto de moneda justa, lo establecemos como anterior y lo ajustamos en función de la realidad. Debería darnos un resultado similar con MLE pero con un estilo bayesiano comprometido.
Esto es casi todas mis ideas. Otra respuesta bayesiana se puede ver a continuación.
Si lanzas una moneda 1 millón de veces y obtienes caras en todas ellas, pero si la lanzas una vez más, ¿aumenta la probabilidad de obtener colas y cómo cambiaría la respuesta dependiendo de cuántas veces la lancemos? ?