Con dos tiradas suele bastar

¿Quieres que nos juguemos el café? Mira, vamos a lanzar un dado por turnos e ir sumando los resultados que vayamos obteniendo. Gana el primero que con su tirada pase del número de caras del dado. Llevo mis dados de Magic en el bolsillo,  vamos a usar el de 20 para añadir un poco de emoción, así que ganará el primero que llegue a 20. ¿Vale? Empiezas tú. Tiras, sacas un 7, no llegas a 20. Tiro yo, saco un 6: 7+6=13, no llego a 20, tira. Sacas un 12: 13+12=25, ganas. ¡Mier…,!  ¡Uy, perdón, eso sí que no me lo esperaba! ¿Al mejor de tres?

(2 horas antes)

Estaba leyendo la autobiografía matemática de John Allen Paulos  y en un momento dado cita un artículo suyo en ABCnews  con apariciones estelares (la primera, literalmente) del número e. Una de ellas es, traduzco (y abrevio):

John Allen Paulos

Escoger números al azar también puede dar lugar a e. Elige un número entero aleatorio entre 1 y 1000. (Digamos que escoges 381.) Elige otro número aleatorio (digamos 191) y súmalo al primero (en este caso, da 572). Continua eligiendo números aleatorios entre 1 y 1000 y sumándolos a la suma de los números aleatorios escogidos previamente. Detente sólo cuando la suma supere los 1000. (Si el tercer número fuera 613, por ejemplo, la suma pasaría de 1000 después de tres selecciones.)

¿Cuántos números aleatorios, en promedio, necesitarás elegir? En otras palabras, si un grupo grande de personas repite este procedimiento, generar números entre 1 y 1000 y sumarlos hasta que la suma pase de 1000 y registrar el número de selecciones que han necesitado para llegar superar el 1000, el número promedio de dichas selecciones sería –lo has adivinado– muy próximo a e.

 

Pues sí, en la página del Wolfram Mathworld sobre la distribución de sumas de copias de una variable uniforme en [0,1] encontraréis la demostración de que si vais tomando números al azar entre 0 y 1 con distribución uniforme y sumándolos, la probabilidad de que la primera elección en la que la suma sea \geq 1 sea la n-ésima es 1/(n(n-2)!) y de que, entonces, la esperanza de esta distribución de probabilidades, es decir, el número promedio de números que tendremos que tomar para superar el 1, es e. Multiplicando por 1000, y quitando partes decimales, obtenéis la aproximación citada por Paulos.

Naturalmente, aunque lanzar un dado de N caras sea escoger un número entero al azar (y equiprobablemente) entre 1 y N, si N es pequeño entonces los decimales que se borran juegan un papel importante. Por ejemplo, con un dado de 6 caras, el número medio de lanzamientos necesarios para sumar 6 o més es un poco más de 2.16, y con un dado de 20 caras para superar el 20 necesitamos en promedio un poco más de 2.52. Con el dado de 100 caras que todos los matemáticos tenemos en casa rondamos el 2.68.

Pero hay otro dato que me interesa en el juego de tirar el dado y sumar hasta superar el umbral: si jugamos con un dado de N caras, más de la mitad de las veces llegaremos a N en la segunda tirada, independientemente de N. Esta probabilidad es muy sencilla de calcular: para pasar de N en la segunda tirada pero no en la primera, tenemos que sacar un k entre 1 y N-1 en la primera tirada y luego en la segunda cualquiera de los k+1 valores que hacen que la suma supere N (por ejemplo, si con un dado de 20 caras en la primera tirada saco un 5, para llegar a 20 en la segunda necesito algo entre 15 y 20). Por tanto, de las N^2 posibles tiradas dobles, en \sum\limits_{k=1}^{N-1} (k+1)=(N+2)(N-1)/2 pasaremos de N sin que en la primera tirada lleguemos a N, y este número es mayor que  N^2/2 si N\geq 3. En concreto, la probabilidad de superar N en dos tiradas de un dado de N caras es de aproximadamente 0.56 si N=4 o N=6; 0.53 si N=12; y 0.52 si N=20.

Así que en el jueguecito del principio, si dejamos empezar al otro, lo más probable es que ganemos en la segunda jugada, independientemente del dado. Y si no, siempre nos queda la cuarta, la sexta…

-Hola, Cesc, te veo muy concentrado

-¡Hola! Sí, estaba haciendo unos cálculos. Oye,  ¿quieres que nos juguemos el café? Mira, vamos a lanzar un dado por turnos…

Esta entrada participa en la Edición 8.5 del Carnaval de Matemáticas cuyo anfitrión es Raíz de 2.

 

Carreras de raíces digitales de primos

En su famoso artículo “Prime Number Races” (The American Mathematical Monthly, 2006; encontraréis  la versión española en la Gaceta de la RSME aquí), A. Granville y G. Martin popularizaron las carreras de primos, que ya habían sido introducidas por Knapowski y Turán en una serie de artículos en Acta Arithmetica a mediados de los años 1960. Por una carrera de primos no me refiero a que en alguna fiesta familiar se organize una carrera en la que participen todos los nietos del patriarca. No. En nuestras carreras de primos, se fija un módulo (por ejemplo, 4) y cada participante escoge un resto para ese módulo que sea coprimo con él (por ejemplo, yo escojo el 1 y tú escoges el 3). Entonces, a medida que se va recorriendo la lista de números primos, cada resto que aparece suma 1 al que lo ha escogido. Al final, cuando se llega a la meta prefijada, gana el participante cuyo resto haya aparecido más veces: ¿Que han salido más unos? Gano yo. ¿Más treses? Ganas tú. ¿Empate? Empate.

Los resultados que se conocen sobre carreras de primos son fascinantes, y se remontan al trabajo de Littlewood sobre el Teorema de los números primos. Fijemos algunas notaciones, para abreviar el lenguaje. Denotaremos por \pi(n;q,a) el número de primos \leq n que son congruentes con a  módulo q; supondremos siempre que a y q son coprimos, aunque no lo digamos explícitamente. Recordemos, además, que \pi(n) indica el número de todos los primos \leq n. Por ejemplo, siguiendo con los primos módulo 4, \pi(n; 4, 1) y \pi(n;4,3) son los números de primos menores o iguales a n que son congruentes con 1 y con 3 módulo 4, respectivamente.

El teorema de los números primos para progresiones aritméticas que citaba en un post anterior garantiza que, cuando n\to \infty, la fracción \pi(n; q,a)/\pi(n) tiende a 1/\phi(q) (donde \phi es la función de Euler que nos da el número de restos módulo q coprimos con este). Por ejemplo, a medida que n tiende a infinito, los primos \leq n congruentes con 1 módulo 4 tienden a ser la mitad, y los congruentes con 3 módulo 4 la otra mitad.

Ahora bien, la pregunta relevante para nuestras carreras de primos es ¿cómo se van comportando las cantidades \pi(n; 4, 1) y \pi(n;4,3) a medida que n crece? ¿Quién tiene más probabilidades de ganar una carrera?

Ya en 1835,  Chebyshov (¿ahora se escribe así?) mencionaba en una carta que parecía haber muchos más primos congruentes módulo 4 con 3 que con 1 (el famoso sesgo de Chebyshov). De hecho, la primera vez que \pi(n; 4, 1)>\pi(n;4,3) es en n=26861 y luego no vuelve a pasar hasta n=616841. No obstante, un teorema de Littlewood garantiza que el signo de \pi(n; 4, 1)- \pi(n;4,3) cambia infinitas veces, así que hay infinitas ocasiones en que en las que el 1 gana al 3.

Ahora bien, si la Hipótesis generalizada de Riemann y la Conjetura de Independencia Lineal LI de los ceros de \zeta(x) son verdaderas, Rubinstein y Sarnak demostraron en 1994 que, en un cierto sentido específico, la “probabilidad” de que \pi(n; 4, 3) sea mayor que \pi(n;4,1) es del 99.6%. Más en general, el teorema de Rubinstein y Sarnak dice que

  • si a y b son ambos cuadrados o ambos no cuadrados módulo q, la “probabilidad” de que \pi(n; q,a)>\pi(n; q,b) es 0.5
  • si a no es un cuadrado módulo q y b sí, la “probabilidad” de que \pi(n; q,a)>\pi(n; q,b) es mayor que 0.5 (y puede ser mucho mayor, como vemos para q=4)

Así que, ya sabéis, si queréis jugar a las carreras de primos, procurad escoger un resto que no sea un cuadrado módulo el q escogido.

Para probar, vamos a hacer carreras con las raíces digitales de los primos, que no son más que restos módulo 9, y comparar con el resultado teórico. Compitiendo en la pista, las raíces digitales 1, 2, 4, 5, 7 y 8, que son las coprimas con 9. Fijaos que 1, 4 y 7 son cuadrados módulo 9, y 2, 5 y 8 no. He tomado los tres primeros millones de primos menos el 2 y el 3. ¿En cuántas ocasiones cada una de las raíces digitales ha ido en cabeza de la carrera (posiblemente empatado con otra)? Aquí tenéis la tabla:

tablaRD

Como podéis ver, sobre 2.999.998 puntos de cronometraje, 1 y 4 solo han ido en cabeza 3306 y 7920 veces, aproximadamente un 0.1% y un 0.2% de las ocasiones. El 7 es más curioso, porque ha ido en cabeza un número de veces dos órdenes en magnitud mayor, pese a ser un cuadrado módulo 9. Las raíces 2, 5 y 8 han ido aproximadamente un tercio de las ocasiones en cabeza, 100.000 arriba, 100.000 abajo.

Vale, 1 y 4 no vale la pena que jueguen, no son de la misma liga que los otros. Voy a comparar los otros. Como el gráfico de la competición de los cuatro corredores de golpe es difícil de interpretar, he generado un gráfico para cada par de corredores. Muestro el primero y lo explico, y así el resto se entenderán.

2contra5

Los puntos rojos repersentan el 2 y los azules el 5. En cada momento, el color que está en la línea superior es quien va ganando, y el de la línea inferior, perdiendo. Los puntos centrales son aquellos en los que empatan (que han quedado azules porque son los segundos que he dibujado, y se han superpuesto). El eje de abscisas representa el índice de los primos: va del tercero al que hace 3 millones.

Bueno, aquí vienen el resto de competiciones por parejas. De ellos podéis deducir fácilmente (módulo lo que podáis magnificar las imágenes y afinar las longitudes) en cada momento quién gana. Por ejemplo, en el primo que hace 2.000.000, 5 gana a 2, 2 gana a 7, 8 gana a 2 y 5 gana a 8, por tanto 5 gana.

2contra7

2contra8

5contra7

5contra8

7contra8

Ah, bueno, una última cosa. ¿Cómo quedan al llegar al primo 3.000.000? Pues en primer lugar llega el 8, seguido del 7, seguido del 2, seguido del 4 casi empatado con el 5 y, farolillo rojo el 1. La diferencia entre el número de ochos y el número de unos al terminar la carrera es de 229. La mayor diferencia entre el que va en cabeza y el que va a la cola se da alrededor del primo número 2.271.290, es de 403, y en ese momento el que va ganando es el 8 y el que va perdiendo el 7.

Y hala, esta entrada participa en la edición 7.4 del Carnaval de Matemáticas, cuyo blog anfitrión es ::ZTFNews.

 

Un problema de Marius Coman sobre raíces digitales de primos

Estaba yo pensando (es decir, buscando inspiración en Google) sobre un taller para estudiantes en que pudieran olerse conjeturas sobre números primos a partir de primos pequeños, pudieran contrastarlas con el fichero de los primeros 50 millones de primos que me generé el otro día y que ya he usado en este blog, y luego ya veríamos las que no pudieran refutar si se sabe que son verdaderas o no y cómo se podrían demostrar, cuando caí en el fascinante (por decir algo) “Two hundred and thirteen conjectures on primes” de Marius Coman (se puede descargar de aquí).

La pinta que tiene ese texto es que más o menos hace lo que quiero que hagan los niños: busca regularidades en los primeros primos, las comprueba hasta algún valor  y conjetura las que no puede refutar de esta manera. Me ha llamado la atención un problema que plantea en la página 28 sobre raíces digitales (ya sabéis, restos módulo 9) de números primos:

Hay algún otro primo p diferente de 23 con la propiedad de que, para cada una de las seis posibles raíces digitales 1,2,4,5,7,8, haya la misma cantidad de primos impares menores que p con esa raíz digital?

Está claro que un número primo no puede tener raíz digital 6 o 9 (porque entonces sería divisible por 3) y que el único primo de raíz digital 3 es el mismo 3, por lo que la podemos excluir. Entonces, los primos impares menores que 23 (y diferentes de 3) son 5, 7, 11, 13, 17, 19, de raíces digitales 5, 7, 2, 4, 8 y 1 respectivamente: una de cada. La pregunta de Coman es si vuelve a haber empate en algún otro punto de la infinita secuencia de primos.

Según el teorema de los números primos para progresiones aritméticas (podéis encontrar una demostración corta, aunque algo tramposa porque la parte difícil no la demuestra, aquí), cuando n\to \infty, las fracciones de primos menores que n con raíz digital 1,2,4,5,7 o 8 tienden a ser la misma, 1/6. En mis 50 millones de primos esto se puede detectar: si eliminamos el 2 y el 3, las frecuencias de las raíces digitales del resto de los otros 49999998 primos son

\begin{array}{l|cccccc} \mbox{R. D.} &  1  & 2  & 4  & 5  & 7 &  8  \cr \hline  \mbox{Frec.} & 8333074 & 8333893 & 8333197  & 8333574 & 8332716 & 8333544 \end{array}

La diferencia entre la frecuencia mayor y la menor en esta tabla es de 1177, que sobre unos 50\cdot 10^6 primos es una miseria.

Bueno, pues nada, que he comprobado la conjetura de Coman sobre los 49999998 primeros primos impares diferentes de 3. Y sabéis qué? Que no falla: no hay ningún empate de las seis frecuencias relativas salvo para el 23. Curioso, verdad?

(Se acerca el , así que mejor dejo algo para entonces. Continuará…)

 

¿Y qué pasa con las penúltimas cifras?

Pensando en el sesgo detectado en las frecuencias de las últimas cifras de los primos que siguen a un primo de última cifra fijada, me preguntaba qué pasaba con las penúltimas cifras. Como en Mallorca esta semana aún estamos de vacaciones escolares (envidia cochina), he hecho un programilla en R para mirarlo. He creado una lista con los primeros 50 millones de primos (no, esta vez no la voy a colgar en el dropbox, ocupa más de 500 Mb; si os da pereza generarla, la podéis descargar con paciencia de “The first fifty million primes”), para cada uno de ellos me he quedado con su penúltima cifra y he calculado

  • la frecuencia relativa de esta penúltima cifra
  • la frecuencia con que una penúltima cifra de primo sigue a otra penúltima cifra de primo

Y los resultados son curiosos, al menos para mi teoría de números.

Vamos con las primeras: no hay sorpresas, cada penúltima cifra aparece aproximadamente en un 10% de los primos, con diferencias de más o menos 5 milesimas de punto porcentual.

Pero en las frecuencias condicionadas hay sorpresa, y además sorpresa regular: Si la penúltima cifra de un primo es x, entonces, independientemente de x, la probabilidad de que la penúltima cifra del siguiente primo sea (módulo 10)

  • x, es de un 16.7%
  • x+1, de un 33.4%
  • x+2, de un 21.1% o un 21.2%
  • x+3, de un 14.1%
  • x+4, de un 6.5%
  • x+5, de un 3.7% o un 3.8%
  • x+6, de un 2.4%
  • x+7, de un 1.1%
  • x+8, de un 0.6%
  • x+9, de un 0.4%

La tabla concreta, para 50 millones de primos, es

2016-03-29 09.58.10

Además, estas proporciones van variando a medida que tomamos más números primos, pero  siempre son más o menos independientes de la penúltima cifra x del primo “antecedente”.

Podéis descargar de aquí el fichero html con los resultados (las tablas para los primeros 10, 20, 30, 40 y 50 millones de primos), y de aquí el fichero Rmarkdown que lo ha producido (pero para ejecutarlo, necesitáis la lista de primos).

Ya digo, supongo que hay algún teorema que implique este comportamiento de las penúltimas cifras, pero mi teoría de números está oxidada.

 

Lo confieso, yo también he caído en la tentación…

Supongo que la mayoría de los lectores de blogs sobre matemáticas ya os habréis enterado de la “anomalía” en la distribución de la última cifra de los números primos detectada por K. Soundararajan y R. L. Oliver (en la foto, copiada del artículo en Quanta Magazine que ha popularizado el resultado)  y  publicada en el arXiv hace unos 15 días. En todo caso, aquí viene un resumen rápido de la anomalía en cuestión, por si hay algún despistado.

PrimesResearchers

Salvo el 2, que es el único primo que termina en cifra par (cualquier otro número par forzosamente es compuesto), y el 5, que es el único primo que termina en 5 (cualquier otro múltiplo de 5 forzosamente es compuesto), el resto de los números primos terminan en 1, 3 7 o 9, y resulta que se reparten esta última cifra de manera uniforme: salvo el 2 y el 5, si tomamos todos los números primos hasta una cierta cantidad n grande, aproximadamente un 25% terminarán en 1, un 25% en 3, un 25% en 7 y un 25% en 9.  Las diferencias en los porcentajes son pequeñas (es el llamado sesgo de Chebyshev) y tienden a 0 a medida que n tiende a infinito.

Pues bien, Soundararajan y Oliver han observado que  la frecuencia con la que un número primo termina en la misma cifra que el número primo que le precede es mucho menor que la de cualquier otra de las tres cifras posibles (excluyo el 2 y el 5): aproximadamente sólo un 18% de los pares de primos consecutivos terminan en la misma cifra, en vez del (aproximadamente) 25% que se esperaría si las últimas cifras se distribuyeran de manera realmente uniforme. En todo caso, la desviación detectada respecto del 25% es mucho mayor que la de Chebyshev. En el artículo mencionado los autores no sólo publican las cifras relativas a esta anomalía para los primeros 100 millones de primos, sino que además la demuestran suponiendo verdadera una conjetura de Hardy y Littlewood.

En un artículo de E. Lamb  en Nature sobre el tema, Soundararajan dice que “Todas las personas a quienes se lo hemos explicado terminan escribiendo sus propios programas de ordenador para comprobarlo por ellas mismas”. Pues sí, yo también lo he hecho, con R y para 10 millones de primos. Y coincido con A. Granville (citado en el artículo en Quanta): encuentro asombroso que nadie se hubiera dado cuenta antes.

Como, además, tenía que realizar un pequeño vídeo en Jing para un curso sobre videotutoriales de la UIB, he aprovechado para matar dos pájaros de un tiro y grabar el experimento. Por desgracia, cuando ya estaba hecho he descubierto que no se pueda incluir un vídeo Jing en un blog WordPress de WordPress.com, así que si os interesa el vídeo, clicad en El vídeo del experimento. Y aprended de la experiencia: si queréis grabar un vídeo e incluirlo en un post, no uséis Jing y Screencast; colgadlo, por ejemplo, en Youtube.

En todo caso, os resumo el resultado del experimento numérico: a partir de un vector formado por los primeros 10 millones de primos (quitando los tres primeros y el último por razones técnicas obvias), obtengo la tabla siguiente, donde cada fila nos da la frecuencia relativa con la que, en mi vector, si un primo termina en la cifra de la fila, el siguiente primo termina en la cifra de la columna. Como podéis ver, en cada fila la probabilidad de que el siguiente primo repita la misma última cifra es mucho más baja que cualquiera de las otras tres. Por ejemplo, si un primo termina en 1, el siguiente termina en 1 un 18% de las veces, en 3 un 30% de las veces, en 7 otro 30% de las veces, y en 9 un 21% de las veces.

 

2016-03-27 21.31.27

El codigo usado (salvo en la primera línea) es el siguiente:

 
primos=scan("https://dl.dropboxusercontent.com/u/72911936/primers10m.txt")
primos[1:100]
primos=primos[-(1:3)]
primos[1:100]
f=function(x){x%%10}
prim.uc=f(primos)
prim.uc[1:100]
round(prop.table(table(prim.uc)),4)
prim2=prim.uc[-1]
prim1=prim.uc[-length(prim.uc)]
t=table(prim1,prim2)
round(prop.table(t,margin=1),4) 

Con la primera instrucción, se carga el fichero de los 10 millones de primos a partir de una copia que he dejado en mi dropbox. Para poderla ejecutar necesitáis una versión 3 y pico de R, y va a tardar un rato, porque son 93 Mb. Igual os conviene directamente guardar el fichero en vuestro directorio de trabajo y cargarlo con

 primos=scan("primers10m.txt") 

o generar vuestra propia lista de primos con vuestro programa favorito.

Y como llego a tiempo, pues nada, esta entrada también participa en  la Edición 7.2 del Carnaval de Matemáticas que alberga La Aventura de la Ciencia.

Dos de cada tres estudiantes de la UIB, matriculados en carreras con muchos estudiantes. ¿Notición?

Estos días estoy meditando sobre aplicaciones de la paradoja de la amistad en el análisis de redes de interacciones de proteínas. Como Clara Grima ya explicó coj…mente esta paradoja en esta entrada de Cienciaxplora, voy a ahorraros los detalles. En todo caso, y en resumen, se trata del hecho que, para la mayoría de nosotros, nuestros amigos tienen, de media, más amigos que nosotros (y son más felices y más guapos que nosotros, y han ligado a lo largo de su vida más que nosotros y …). Por suerte, esto (normalmente) no tiene nada que ver con nuestra personalidad, sino que es un teorema de teoría de grafos atribuido a Scott Feld, que lo enunció, demostró y analizó en su artículo del 1991 titulado Why your friends have more friends than You do.

En realidad, esta paradoja viene de más lejos, de la llamada “paradoja del tamaño de la clase” que introdujeron el mismo Scott Feld y Bernard Grofman en un artículo de 1977 titulado Variation in class size, the class size paradox, and some consequences for students:

si escogemos al azar un estudiante de un centro, el tamaño esperado del curso en el que está matriculado es casi siempre estrictamente mayor que el tamaño medio de los cursos de su centro, y en todo caso nunca menor.

Además, en muchas distribuciones razonables de números de matriculados por curso, una gran mayoría de los estudiantes están matriculados en cursos más numerosos que la media (lo que les lleva, por comparación, al desánimo y al abandono de los estudios, según los autores; igual se lo podemos explicar a las comisiones de acreditación de los grados: “no es culpa nuestra que abandonen los estudios, es que no saben teoría de grafos y creen que son unos desgraciados por estar en cursos numerosos”).

Aquí viene la demostración. Sean x_1,\ldots, x_n los números de alumnos de los n cursos que ofrece un determinado centro. Entonces:

  • El valor medio de alumnos por curso es \overline{x}=(\sum_{i=1}^n x_i)/n
  • Pero si consultamos todos los estudiantes uno a uno y les pedimos cuántos estudiantes hay en su curso, y calculamos la media de los valores obtenidos, será otro cantar: para cada curso de x_i alumnos, habrá  x_i alumnos que contestarán “x_i”, por lo que cada respuesta  x_i aparecerá x_i veces. La suma total de respuestas será, por lo tanto, \overbrace{x_1+\cdots+x_1}^{x_1} +\cdots+ \overbrace{x_n+\cdots+x_n}^{x_n}=\sum_{i=1}^n x_i^2. La respuesta media por alumno (es decir, el número medio de matriculados en el curso en el que está matriculado un alumno escogido al azar), llamémosle \overline{x}_{al}, se obtendrá dividiendo esta suma por el número de respuestas:  \overline{x}_{al}=(\sum_{i=1}^n x_i^2)/(\sum_{i=1}^n x_i)

Si ahora restamos \overline{x}_{al}-\overline{x}=(\sum_{i=1}^n x_i^2)/(\sum_{i=1}^n x_i)-(\sum_{i=1}^n x_i)/n, un pequeño cálculo algebraico muestra que es igual a la varianza \mathrm{var}(x) de x_1,\ldots, x_n partido por su media \overline{x}. Y ahora es el momento de recordar que la varianza siempre es positiva, y es 0 sólo cuando x_1=\cdots=x_n. Por lo tanto, salvo en este caso, el número medio de matriculados en el curso de un estudiante escogido al azar será siempre mayor que el número medio de matriculados por curso. Y cuánto mayor sea la varianza, es decir, cuánto más variados sean los números x_1,\ldots, x_n, mayor será el cociente entre estas dos medias.

Vale, un experimento. He sacado de aquí los números de matriculados en los 30 grados de la UIB en el curso 2013-14 (los matriculados en dobles titulaciones los he contado en cada una de los grados involucrados). Estos números van de los 1228 matriculados en Administración de Empresas a los 93 matriculados en Matemáticas. He calculado el número medio de estudiantes por grado, \overline{x}, y el número medio de estudiantes matriculados en el grado de un estudiante aleatorio, \overline{x}_{al}. Los resultados (redondeados) han sido \overline{x}=366\overline{x}_{al}=593: un estudiante está matriculado de media en un grado de 593 estudiantes, pero el número medio de estudiantes por grado es de 366. Además, un 66.5% de los estudiantes de la UIB están matriculados en grados con un número de estudiantes mayor que la media. Es raro que algunos periódicos tradicionalmente críticos por defecto con la UIB no lo hayan publicado nunca.

El código R, por si queréis confirmar los números, es muy sencillo.

 ests.UIB=c(1228,1042,1028,623,612,560,497,467,432,412,400,351,339,
252,243,231,228,226,215,180,174,154,169,156,146,140,134,131,116,93)
#Media de alumnos por grado
mean(ests.UIB)
#Media de alumnos por grado desde el punto de vista del alumno
sum(ests.UIB^2)/sum(ests.UIB)
#Porcentaje de alumnos en grados más numerosos que la media
sum(ests.UIB[ests.UIB>mean(ests.UIB)])/sum(ests.UIB)

En cambio no sé cómo usar la paradoja de la amistad para explicar la percepción de los estudiantes de que sus amigos siempre tienen menos tareas que ellos para hacer en casa.

 

Si nunca ha pasado, ¿qué probabilidad hay de que pase?

Soy un cirujano, y quiero llevar a cabo un cierto procedimiento quirúrgico novedoso. Hasta el momento, se ha realizado 10 veces en diferentes hospitales, y las 10 veces ha sido un éxito. El nivel de competencia de mi equipo es, como mínimo, similar al de los otros equipos que ya lo han llevado a cabo. Pero a la dirección del hospital, que me tiene que autorizar el procedimiento, le preocupa la probabilidad de que mi operación salga mal. Son pragmáticos. Si se me muere el paciente, y me demandan por negligencia, ¿podrá un testigo experto en estadística ayudar a exculparnos, a mí y al hospital, demostrando que el fracaso puede haberse debido al azar?

Para resolver este problema y curarse en salud, los médicos emplean la regla del tres:

si en una muestra de n experimentos independientes se ha obtenido éxito en todos ellos, podemos afirmar con un nivel de confianza del 95% que la probabilidad de fracasar es menor o igual a 3/n

Por lo tanto, en mi caso, entiendo que la probabilidad de fracasar puede ser de hasta el 30%. No sería tan raro que la operación saliera mal.

Vale. En realidad no soy médico ni administrador de hospital, sino matemático. Así que mi preocupación no es la demanda por negligencia, sino cómo se llega a esta “regla del tres” y qué significa. Porque lo del nivel de confianza…

Vamos por partes. Esta regla se obtiene con el siguiente argumento: véase, por ejemplo, [1]. Llamemos p a la probabilidad de fracaso. Queremos determinar el máximo valor de p que hace que una cadena de n éxitos sea muy poco probable, en concreto que tenga una probabilidad del 5%.  Igualamos (1-p)^n=0.05, resolvemos, p=1-0.05^{1/n}, y desarrollamos por Taylor

p=\dfrac{2.99573}{n}-\dfrac{4.48721}{n^2}+\ldots

Si tomamos el primer término de este desarrollo, obtenemos p\approx \dfrac{2.99573}{n}\approx \dfrac{3}{n}.

En resumen, lo que hemos demostrado es

si la probabilidad de fracaso es mayor que 1-0.05^{1/n}\approx 3/n, una cadena de n éxitos tiene una probabilidad inferior al 5%.

Esto es lo que quiere significar exactamente la expresión “podemos afirmar con un nivel de confianza del 95% que la probabilidad de fracasar es menor o igual a 3/n” en la frase anterior: si la probabilidad de fracasar es mayor que 3/n, la probabilidad de lo que hemos observado es menor del 5%. Este enfoque a la confianza corresponde al llamado método de Clopper-Pearson para calcular un intervalo de confianza de una proporción. Pero hay que tener claro que el intervalo de confianza en el sentido de Clopper-Pearson no es un intervalo de confianza en el sentido usual el término

Según la definición usual, un intervalo de confianza al 95% para p es una fórmula que, aplicada a secuencias (aleatorias e independientes) de repeticiones del procedimiento, produce intervalos de tal manera que la probabilidad de que un intervalo obtenido de esta manera contenga a p es del 95%. Se suele abusar del lenguaje, y decir que para una aplicación concreta de la fórmula, el intervalo producido contiene a p con una probabilidad del 95%, pero es un abuso del lenguaje: dados p y un intervalo, o el intervalo contiene a p o no: en el primer caso, la probabilidad de que la contenga es 1, en el segundo, 0. Pero como en este caso al final la fórmula sólo depende de n, podemos dar por bueno el abuso de lenguaje.

Por lo tanto, según esta definición, para que [0,3/n] sea un intervalo de confianza del 95% para p ha de pasar que la probabilidad de que p pertenezca a este intervalo sea del 95%. Pero lo que sabemos es que si p no pertenece a este intervalo, la probabilidad de 0 fracasos és (inferior al) 5%. Estamos ante una confusión de probabilidades condicionadas. Sea X el suceso p\in ]3/n,1] e Y el suceso “Tener 0 fracasos en una secuencia de n experimentos con probabilidad de fracaso p”. Hemos demostrado que P(Y|X)=0.05, y lo que querríamos es que P(X|Y)=0.05. Y ya sabemos que, al menos en principio,

P(X|Y)\neq P(Y|X)

Por lo tanto la regla del 3 se ha tomar con su significado correcto, que no es el usual para los intervalos de confianza.

Un añadido final para los que recuerden el cálculo básico de intervalos de confianza en su sentido usual. En los cursos de introducción a la estadística se suele explicar la fórmula de Laplace  para el intervalo de confianza de una probabilidad p. Por desgracia, esta fórmula aquí no puede aplicarse, porque produce un intervalo centrado en la proporción observada y por tanto estima que la probabilidad de fracaso es 0 y punto. Además, para que la fórmula de Laplace dé (aproximadamente) el intervalo de confianza requerido es necesario que la muestra sea grande y los números de éxitos y fracasos relativamente grandes. Por poner números e ir sobre seguro, tiene sentido aplicarlo sólo a secuencias de más de 100 repetiones del experimento, en las que obtengamos entre 10 y 90 fracasos.

En cambio, sí que se pueden usar otras fórmulas que no se suelen explicar en cursos introductorios. Por ejemplo, la fórmula de Wilson, derivada directamente del Teorema Central del Límite, que es fiable para muestra más pequeñas (pongamos, a partir de 30 repeticiones) y no impone restricciones a los números de éxitos y fracasos. Si la aplicamos a una secuencia de n repeticiones sin ningún fracaso, obtenemos obtenemos que el intervalo de confianza del 95% para la probabilidad p de fracaso va de 0 a, aproximadamente, \dfrac{3.84}{3.84+n}.  Por ejemplo, en el caso de los 10 éxitos consecutivos, da el intervalo [0,0.2774566], ligeramente más pesimista que la regla del 3. La ventaja de este intervalo \left[0, \dfrac{3.84}{3.84+n}\right] es que éste sí que es un intervalo de confianza al 95% en el sentido usual. Tampoco les costaría tanto a los médicos aprendérselo, ¿no?

Esta entrada participa en la Edición 5.2 del Carnaval de Matemáticas cuyo anfitrión es Matesdedavid.
Referencias

[1] J. A. Hanley, A. Lippman-Hand. “If nothing goes wrong, is everything all right? Interpreting zero numerators.” Journal of the American Medical Association 249 (1983), 1743-5.  Hoy se podía descargar de aquí.