Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 28 de noviembre de 2015

La variable independiente


Una variable es un factor de estudio mensurable, en tanto que medición de una cualidad, de la cual se puede extraer un conjunto de muestras, por la medición de la intensidad o grado de ocurrencia de esa misma cualidad en un conjunto de sujetos u opciones, o repetidas mediciones en un mismo objeto de estudio elaborando una muestra de puntuaciones directas o frecuencias, sobre la que existe al menos en teoría la hipótesis, que no siendo constante, es un factor al que se le atribuye un grado de causalidad en la sucesión de otros fenómenos, denominados variables dependientes.

Desde los modelos estadísticos clásicos de investigación experimental la variable independiente era la variable de cuya manipulación por se estudiaban sus efectos sobre las variables dependientes. De modo que la principal diferencia entre variable independiente y dependiente, es que mientras la independiente era de manipulación experimental, la variable dependiente era aquella sobre la que se observaban sus efectos. En un estudio médico, la variable independiente sería el tipo de tratamiento médico, la dependiente la evolución de la sintomatología en el paciente. En un estudio pedagógico, la variable independiente sería el tipo de método educativo, la dependiente el rendimiento escolar. En un estudio de astrofísica la variable independiente el tipo de manipulación sobre las partículas, la dependiente el tipo de comportamiento que manifiesten las partículas. En líneas generales, la variable independiente es aquella sobre la que opera el equipo de investigación, la dependiente aquella de cuyos resultados se observan los efectos de la manipulación experimental.

Esta definición clásica, variable independiente aquella objeto de manipulación, dependiente aquella objeto de observación de sus efectos, es una definición todavía hoy válida en determinados contextos en donde el método experimental clásico sea útil, pero después de los avances en epistemología en el siglo XX van apareciendo nuevas definiciones, acorde a los nuevos progresos en metodología de investigación, uno de ellos la aparición del método quasi-experimental, en ciencias sociales, y la aparición de nuevos paradigmas que sobre conceptos como incertidumbre, relatividad, caos, complejidad, van elaborando nuevas definiciones sobre los conceptos tradicionales que apuntan hacia nuevos marcos interpretativos.

En el caso de la estadística de la probabilidad o probabilidad estadística, en el momento que se mueve en el terreno de las ciencias estocásticas, el determinismo clásico de que para todo efecto hay una causa razonable se desvanece en una nube de multicausalidad compleja, en donde la supuesta linealidad se evapora en un cúmulo de factores multicausales, en donde a menudo lo más acertado sería el estudio en todo caso de las causas probables de un fenómeno, fuera de cualquier determinismo.

Frente los modelos clásicos de la probabilidad de carácter determinista, el paradigma claro esta Laplace, a lo largo del siglo XX aparecen nuevos modelos de estadística y probabilidad que lejos del determinismo desarrollan nuevos esquemas indeterministas, en donde la supuesta secuencia  lineal causa y efecto puede estar sujeta a alteraciones en función de la propia naturaleza aleatoria en la distribución caótica de los fenómenos.

De hecho en el apartado 13 de Introducción a la Probabilidad Imposible, estadística dela probabilidad o probabilidad estadística, se parte de una concepción cosmológica de la realidad en la que a partir de accidentes aleatorios hay posibilidad de surgimiento de contingencias que den lugar a patrones de regularidad estable: de múltiples accidentes en el universo por choques entre sí de polvo cósmico y pedazos de materia en el espacio puede surgir cuerpos celestes, galaxias, y planetas, contingencias que pueden lugar a patrones de regularidad estable, sistemas planetarios bajo unas órbitas, cuerpos celestes de cuyos accidentes dentro de sí pueden surgir diferentes contigencias, dinámicas geológicas, atmosféricas, o en el planeta Tierra la aparición de la vida, la biología, de cuya evolución, no exenta de accidentes aleatorios van surgiendo diferentes combinaciones biológicas, que unido a diferentes accidentes geológicos y atmosféricos, extinciones masivas, e impactos de meteoritos, van formando un lugar donde es posible la aparición de la vida humana, que a su vez, por diversos azares de la evolución va derivando a una sociedad compleja. La historia social, fiel reflejo de la historia natural, es la sucesión de accidentes aleatorios de los que sin embargo surgen contingencias capaces de dar lugar a patrones de regularidad estable, al menos hasta que otro accidente crea nuevas condiciones de posibilidad para nuevas contingencias y nuevos patrones de movimiento regular y dinámico de la materia y la energía en el tiempo y el espacio, en síntesis, lo que sería la historia.

En un modelo indeterminista como Probabilidad Imposible, cualquier atribución de causa absoluta o apodíctica a una variable independiente es cuestionable, entre otras razones porque en un mundo regido por las leyes del azar, la ley natural, siempre hay un margen de duda racional para el establecimiento de una ley universal salvo la ley del azar, la ley de probabilidades. En este sentido, la única relación lógica entre una variable y otra puede ser sólo en términos de probabilidad, una relación no siempre causal, por cuanto pueden ser relaciones simultaneidad o retroalimentación.

El hecho que dos variables coincidan en el tiempo o coincida que una sea posterior a la otra, aun en repetidas ocasiones, no implica que sean causa o efecto, pueden ser simplemente simultáneas. Supongamos que en un estudio médico una vez aplicado un tratamiento médico se observan dos efectos diferentes: salvo que tengamos pruebas que lo demuestren, no hay razón suficiente para el establecimiento de relaciones formales entre ambos efectos, y en todo caso la relación entre los efectos y el tratamiento médico será dentro de un margen de duda racional, proporcional a lo márgenes de error aceptados en la investigación científica.

En Probabilidad Imposible se distinguen dos tipos de error, el error de hecho y el error racional. En Introducción a la Probabilidad Imposible, estadística de laprobabilidad o probabilidad estadística, se denomina error de hecho al error que de hecho estamos aceptando cada vez que aceptamos una muestra, por cuanto aceptar la realidad en sí ya de por sí es un error: al aceptar la muestra que obtenemos de la realidad aceptamos el error de representatividad muestral, igual a la inversión de la muestra. En universos de sujetos u opciones infinitos la probabilidad de error de representatividad muestral es la propia inversión de N, 1/N, y en universos de opciones limitadas la probabilidad de error de representatividad muestral es igual a la inversión de la muestra de puntuaciones directas o frecuencias, 1/∑xi.

En Probabilidad Imposible se denomina error racional el que racionalmente aceptamos cuando se acepta la probabilidad crítica, en donde ya sea una probabilidad crítica para el contraste de hipótesis en la prueba estadística, en estadística inferencial, para la crítica racional de la realidad, sobre un margen de fiabilidad igual a porcentaje X de fiabilidad, entre cien, por la máxima tendencia, o margen de error igual a porcentaje X de error, entre cien, por la máxima tendencia, en cualquier caso ya sea estudio de error o fiabilidad siempre hay un margen de error racional, en estudio de error el porcentaje X de error, en estudio de fiabilidad la diferencia entre cien menos el porcentaje X de fiabilidad.

La relación lógica entre el tratamiento médico y los efectos es de un nivel de causalidad probable sujeto a un margen de incertidumbre proporcional al margen de error, luego siempre hay espacio suficiente para la duda, luego la variable independiente será aceptada racionalmente universal dentro de un marco de duda razonable, en donde haya casos en donde la variable independiente no surta los efectos deseados por diversos motivos.

Si en un estudio de N sujetos u opciones en el tratamiento médico no se ha incluido a pacientes con un determinado perfil genético, o determinadas complejidades medicas previas, o que tengan determinadas alergias o intolerancias a ciertos tratamientos médicos, en el momento que el tratamiento sea suministrado a personas con este tipo de perfil, el grado de error del tratamiento es muy elevado, luego no es completamente universal, luego su aceptación universalmente racional es relativo a la probabilidad de error, de hecho y racional.

Por otro lado, cualquier atribución causal entre fenómenos simultáneos, o sucesivos en el tiempo, sin suficientes pruebas racionales de alguna relación probablemente causal sería infundada, algo que a menudo sucede en la ciencia, la atribución causal a fenómenos que en realidad son sólo puras coincidencias sin haber en realidad relación formal alguna.

De otro lado otro tipo de relaciones que no tienen porque acomodarse al concepto clásico de variable independiente son las relaciones de retroalimentación. Si dos variables se retroalimentan entre sí, o por el contrario hay dinámicas de entropía negativa, cualquier atribución de causa y efecto en un sentido clásico carece de sentido. Si en un experimento educativo el desarrollo de la inteligencia matemática mejora la comprensión lectora, la atribución causal de la que la inteligencia matemática tiene por efecto la comprensión lectora carecería de fundamento siempre y cuando no se testase además que, en un experimento de mejora de la comprensión lectora mejora a su nivel el rendimiento en matemáticas.

En diversas investigaciones educativas se ha puesto de manifiesto como la mejora de las capacidades matemáticas mejora la capacidad de comprensión simbólica del alumno, lo que puede tener a su vez mejoras en la comprensión lectora, y viceversa, la mejora de la comprensión lectora puede repercutir positivamente en matemáticas por cuanto el alumno comprende mejor los enunciados de los ejercicios de matemáticas. En síntesis, las capacidades matemáticas y lingúisticas están interconectadas, habiendo relaciones de retroalimentación entre sí.

Hoy en día aunque todavía en libros de estadística siga apareciendo en su noción experimental clásica, es la variable objeto de manipulación cuyos efectos se observan en la variable dependiente, hay que entenderlo en un sentido más amplio. De hecho hoy en día este concepto de variable independiente escapa al método experimental.

Si estudiamos como las tormentas solares afectan a determinados fenómenos atmosféricos y climáticos en nuestro planeta, la variable independiente serían las tormentas solares, y la variable dependiente serían sus efectos sobre la Tierra, sin que en ningún momento al variable independiente pudiera ser objeto de manipulación científica.

Si estudiamos el efecto de la población de abejas sobre la biodiversidad de la flora de un bosque, y estudiamos el efecto de la biodiversidad de la flora del bosque sobre la fauna, y se establecen correlaciones de, en proporción a la población de abejas, proporción de biodiversidad en flora y faura,  estamos haciendo un estudio estadístico y de probabilidad en donde la base de la cadena es la población de abejas, sin que la población de abejas fuera necesariamente una variable objeto de manipulación experimental, salvo que un equipo de zoólogos aumentara la población de abejas por traer abejas de otros sitios, o se llevara a cabo un estudio experimental de cómo aumentar artificialmente la población de abejas utilizando técnicas de apicultura.

En definitiva, hoy en día por variable independiente no se entiende sólo la variable experimental o variable objeto de manipulación, hoy en día la variable independiente es la variable de la que se quiere estudiar su efecto sobre otras variables, denominadas dependientes. En donde ademá se da la complejidad que la variable independiente es sólo una causa probable, entre otras muchas, de modo que en realidad la variable independiente puede ser una covariable que actúe junto a otros en el resultado de un efecto.

A una variable independiente se la llamaría covariable de un efecto en un estudio multicausal o multifactorial donde diferentes variables interactuarían en la aparición de un fenómeno, de modo que podría atribuirse a cada variable un porcentaje de probabilidad causal en la ocurrencia del fenómeno.

Dentro de la naturaleza se dan infinidad de circunstancias en donde un fenómeno es producto de una combinación de diferentes factores, en donde en realidad lo que mide la probabilidad empírica del fenómeno es la probabilidad de que esa combinación se de en la naturaleza. Si estudiamos la probabilidad que surja el arcoíris un día de lluvia estamos estudiando la probabilidad de que se dé una adecuada combinación de lluvia y luz como para producir el efecto óptico del arcoíris.

Cuando diferentes variables interactúan para dar lugar a un fenómeno, la probabilidad del fenómeno es la probabilidad de que se dé la combinación de factores que lo hacen posible. Si en estudio sobre factores de bienestar social como tasas de empleo, renta per capita, nivel educativo… a factor se le atribuye un porcentaje de contribución al bienestar, podría estudiarse como la combinación de una serie de factores, donde cada factor contribuye en un determinado porcentaje, que podría ser ponderado y estudiado de forma cuantitativa.

Si en un estudio quasi-experimental quisiéramos estudiar el fenómeno del bienestar social en diferentes países, unidades de análisis, habría que identificar los factores que contribuyen a este fenómeno,  y proceder a la comparación entre su comportamiento en diferentes países, siendo las variables independientes de los cuales queremos conocer su efecto en el bienestar de las unidades de análisis.
 
Rubén García Pedraza, Madrid a 28 de noviembre del 2015

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

sábado, 14 de noviembre de 2015

La muestra de dos opciones


Una muestra de dos opciones es cuando la muestra N se limita sólo a dos posibles sujetos u opciones exclusivamente, ya sea en ciencias naturales o sociales. Si lanzamos una moneda al aire los resultados normalmente son cara o cruz, el ser humano sólo puede ser hombre o mujer, el estudio del comportamiento de los fotones puede ser como honda o partícula, la carga eléctrica de una partícula sólo puede ser positiva o negativa.

Si bien, se puede dar el caso que al lanzar una moneda al aire finalmente al caer se sostenga sobre el borde de la circunferencia luego no sea ni cara ni cruz, un ser humano sea hermafrodita, independientemente de la modalidad de estudio un fotón se comporte simultáneamente como honda y partícula, y además de los electrones y protones haya neutrones. Independientemente de que en el comportamiento de la realidad no sea reductible a dimensiones binarias, bajo determinadas circunstancias hay estudios donde la muestra N de sujetos u opciones se reduce a sólo dos opciones, siendo el paradigma de universo limitado, el universo limitado a dos opciones.

Un universo limitado de opciones es aquel en donde el objeto de la medición es el recuento del número de ocurrencias por cada opción, siendo el total de ocurrencias por opción igual a la frecuencia de la opción, y además es un tipo de universo que por su propia naturaleza no tiende a infinito. El número de opciones de ese universo será igual a la muestra N, de modo que la probabilidad empírica de cada opción será igual a la frecuencia de la opción entre la frecuencia total. Es dentro de los universos limitados donde el concepto de probabilidad empírica del Segundo Método guarda más similitudes con el concepto clásico de la estadística tradicional, el primer método, de frecuencia relativa. Si bien el concepto tradicional de frecuencia relativa no guarda absolutamente ninguna identidad con el modo en que el Segundo Método de Probabilidad Imposible aplica el concepto de probabilidad empírica a los universos de sujetos, donde la probabilidad empírica se calcularía sobre la puntuación directa de sujeto u opción entre el sumatorio de puntuaciones directas. Diferenciándose la puntuación directa de la frecuencia en que la frecuencia de una opción es el sumatorio del total de ocurrencias de una opción, mientras la puntuación directa es la magnitud obtenida sobre una escala de medida en la estimación de la intensidad de una cualidad en un sujeto.

Una de las principales diferencias entre la frecuencia relativa de la estadística tradicional, el primer método, y la probabilidad empírica del Segundo Método, es que en la probabilidad empírica se equiparan los conceptos de sujeto u opción, haciéndose el mismo tratamiento de los datos obtenidos de cualquier tipo de medición, ya sea en forma de frecuencia o puntuación directa, síntesis que se hace en el concepto de probabilidad empírica de sujeto u opción, igual a la puntuación directa o frecuencia de sujeto u opción entre el total de puntuaciones directas o frecuencias.

Una vez establecidas las diferencias entre el concepto de la estadística tradicional, primer método, de frecuencia relativa, y el concepto del Segundo Método de Probabilidad Imposible sobre probabilidad empírica de sujeto u opción, se distinguen así fácilmente los dos tipos de universos, los universos de opciones y los universos de sujetos tratados como si fueran opciones. Los universos de opciones son de naturaleza limitada, las opciones no infinitas. Y los universos de sujetos tratados como si fueran opciones son así entonces universos de sujetos u opciones que si tienen posibilidad no descartable de tendencia a infinito, ya sea dentro de una posible historia infinita del universo en sí mismo, como dentro de los estudios poblacionales, aunque el estudio se limite en el espacio-tiempo, la posibilidad de infinidad de mediciones entre un periodo de tiempo determinado.

Dentro de los universos limitados el número de opciones que integren el universo serán los límites de ese universo, en donde se dan cabida tanto universos formados por opciones naturales o sociales, como los estudios limitados a categorías discretas, donde de una escala magnitud se establecen categorías definidas por intervalos de magnitud según  límites inferiores o superiores por cada categoría, ordenándose así en forma de categorías discretas. En los estudios de categorías discretas se contabilizarían los sucesos cuya estimación de magnitud estuviera dentro de cada categoría, y el sumatorio del número de sucesos por categoría sería su frecuencia, formando así parte de los universos de opciones limitadas, en este caso, limitadas a categorías discretas. La definición de los universos de opciones limitadas se explica de forma más detallada en el apartado 10 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

De este modo los universos de opciones limitadas integran una enorme variedad de tipos de universos, en donde el número de opciones establecen los límites de ese universo, por ejemplo si lanzamos al aire un dado de seis caras es un universo formado por seis opciones. Si en ciencias sociales se define el estado civil según la persona sea: soltero, casado, separado, divorciado, viudo; el estado civil de una persona viene definido por un universo de  cinco opciones.

El número de opciones en un universo limitado es variable, aunque nunca tendente a infinito, siendo el mínimo posible de opciones igual a dos, una muestra N de sujetos u opciones para que sea susceptible de estudio estadístico debe tener como mínimo dos opciones, si hubiera menos de dos opciones no sería un estudio estocástica.

La primera cualidad de la muestra de dos opciones es que es la muestra más mínima a que pueda llegar N para que haya estudio estocástico, siendo la muestra N una dimensión variable entre dos e infinito, si bien, en caso que N tienda a infinito necesariamente deberá hacer una selección muestral para el estudio, comprendiendo un margen de error de representatividad muestral igual a inversión de N, 1/N.

Dos sería el mínimo indispensable para estudio estocástico, no pudiendo haber en absoluto muestras inferiores a dos en el método estadístico. Y es en muestras de dos opciones donde se observan una serie de cualidades propias.

En muestras de dos opciones de forma universal siempre la media aritmética es igual a “0,5”, y salgo que la probabilidad empírica de ambas opciones sea igual a probabilidad teórica, se daría el caso que siempre que tuvieran el más mínimo sesgo, entonces el Nivel de Sesgo de cada opción sería siempre igual al Máximo Sesgo Empírico Posible, el cual es igual al Sesgo Total entre N, en este caso Sesgo Total entre dos, independientemente de la magnitud del sesgo. Que de darse bajo condiciones de máxima dispersión, que un sujeto u opción tenga probabilidad uno, y el otro probabilidad cero, la Desviación Media sería también igual a “0,5”.

 

La muestra de dos opciones es el único tipo de muestra donde inversión de N, 1/N, sería, además de media aritmética, la Máxima Desviación Media Teórica Posible o Máxima Desviación Típica Posible. De modo que en universos de dos opciones coinciden la media aritmética y la máxima dispersión teórica posible de la muestra.

En la obra Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se menciona en numerosas ocasiones que el método analítico por el cual se ha ido elaborando la teoría es el silogismo de la tendencia, que en resumidas cuentas se puede sintetizar como la aplicación de la lógica al estudio de la tendencia, estudio que normalmente se centra en los límites de la tendencia.

Si estudiamos los límites de la tendencia en los conceptos que integran Probabilidad Imposible, uno de estos conceptos es precisamente el concepto N, que hace mención a la muestra N sujetos u opciones, en donde el estudio de la tendencia rápidamente indicaría que N es una variable que puede oscilar entre dos e infinito, dos porque es el número indispensable de opciones para que haya estudio estocástico, e infinito por la propia existencia de universos que pueden tender a infinito, de los cuales si acaso sólo estudiamos una muestra, la que finalmente se estudiará en la muestra de N sujetos u opciones, una muestra suficientemente grande como para que sea representativa y matemáticamente operativa.

El motivo por el cual no podemos trabajar con una muestra infinita es porque matemáticamente no sería operativa, en primer lugar porque la propia inversión de N no sería operativa. Si N tiende a infinito entonces la inversión de N, 1/N, la probabilidad teórica, sería igual a cero, además de que la muestra de puntuaciones directas o frecuencias tendería a cero, luego la probabilidad empírica sería igual a cero, luego tanto la probabilidad empírica y teórica serían igual a cero haciendo inoperativo cualquier cálculo matemático de la tendencia. Lo que a su vez genera problemas sobre el grado en que realmente un constructo matemático de muestras de sujetos no finitas son realmente representativas sobre lo que ocurre en el infinito, tal como se explica en los apartado 7, 8 y 9 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad o probabilidad estadística.

En el momento que se aplica la lógica a la tendencia de los conceptos de Probabilidad Imposible, a medida que todo tiende a infinito, tanto N y el sumatorio de puntuaciones directas o frecuencias, el modelo empírico tendería a cero, cuando en la realidad real, material y verdadera del universo no es así, un fenómeno que además de contradicciones lógicas, implica que aplicado a la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible, a medida que N aumenta en tendencia a infinito entonces la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible también tienden a cero.

De modo que cuando en muestras de dos opciones, la muestra más mínima e indispensable posible para que se pueda hablar de estudio estocástico, se da el caso que la Máxima Desviación Media Teórica Posible y la Máxima Desviación Media Teórica Posible es igual a “0,5”, entonces se concluye que la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible son dimensiones que sólo pueden oscilar entre “0,5”, y “0”, en donde el máximo valor que pueden alcanzar la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible es igual a “0,5” bajo la condición exclusiva de que la muestra N sólo integre  dos opciones. Conforme N tiende a incrementarse, por el aumento de sujetos u opciones en el modelo matemático, necesariamente la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible entonces tienden a valores inferiores a “0,5”.

De modo que al igual que la propia probabilidad teórica igual a inversión de N, 1/N, es una variable matemática dependiente de la magnitud N, en donde conforme N tiende a infinito entonces la inversión de N, 1/N, tiende a cero, siendo el máximo valor posible de inversión de N, ¡/N, igual a “0,5” bajo supuesto que N sólo integre dos opciones. Del mismo modo la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible es una variable dependiente de N, en donde tienden a cero conforme N tiende a infinito, de modo que el máximo valor que pueden alcanzar la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible es igual a “0,5”.

Por lo que tanto la probabilidad teórica como la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible son dos variables dependientes de N, cuyo máximo valor es “0,5”, bajo supuesto que N sea igual a dos. Y conforme N tiende a infinito estas variables tenderán a cero, si bien, el único y exclusivo caso en donde probabilidad teórica y Máxima Desviación Media Teórica Posible y Máxima Desviación Típica Teórica Posible llegan a tener el mismo valor es sólo en su límite máximo de “0,5”, cuando N es igual a dos. Porque a medida que N sea superior a dos, en función de la magnitud N cada variable será inferior a “0,5”, pero representando magnitudes diferentes, ente otros motivos porque, una vez que N alcance un valor suficiente, dejando de ser la muestra de N opciones de un universo limitado, y pase a convertirse en la muestra N de sujetos u opciones de un universo de sujetos u opciones infinitos, dentro de la multifuncionalidad de inversión de N, 1/N, entonces la inversión de N, 1/N, pasará a ser un estadístico de probabilidad de dispersión teórica, y probabilidad de error de representatividad muestral. En tanto que probabilidad de dispersión teórica en universos infinitos inversión N, 1/N, siempre será inferior a la Máxima Desviación Media Teórica Posible, y la Máxima Desviación Típica Teórica Posible, una diferencia que sin embargo irá decreciendo conforme N tienda a infinito.

De modo que en sus límites extremos, que N sea igual a dos, y que N tienda a infinito, es en donde se produce la mayor coincidencia entre inversión de N y los estadísticos de máxima dispersión muestral teórica posible. En muestras de dos opciones porque ambos serán igual a “0,5”, y en universos de sujetos u opciones infinitos conforme N tienda a infinito tanto la inversión de N como los estadísticos de máxima dispersión muestral teórica posible tenderán a cero, en el caso de inversión de N por cuanto tenderá a uno entre infinito, mientras los estadísticos de máxima dispersión muestral teórica posible tenderán a dos entre infinito,  y en cualquier caso ambos tipos de estadísticos revelarán una tendencia indiscutible a cero.

 Rubén García Pedraza, Madrid a 14 de noviembre del 2015.

https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería