Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 19 de diciembre de 2015

La lógica de la tendencia estadística


La lógica en tanto que disciplina analítica, en la investigación pura, estudia las relaciones formales entre las cosas, y la lógica en tanto que método aplicado para las demás ciencias, es a su vez un método de estudio, en cualquiera de sus modalidades: lógica inductiva, lógica deductiva,  lógica dialéctica, o más en concreto en matemáticas la lógica de conjuntos, que a su vez tiene importantes aplicaciones para otros campos de  las matemáticas como la estadística y la probabilidad.

Al igual que la lógica puede tener la doble acepción de disciplina para sí misma, y método de estudio aplicado a las demás ciencias, lo mismo sucede a las matemáticas, que para sí misma es una ciencia analítica, el propio estudio de las relaciones formales en el lenguaje matemático, al igual que dentro de las ciencias analíticas la lingüística estudia las relaciones formales de una lengua dada, mientras fuera de sí las matemáticas puede ser interpretada como método de estudio, entre los cuales destaca el método estadístico o de la probabilidad.

A menudo aparece nombrado en libros de ciencia la designación de método lógico-matemático, no sólo de una ciencia en particular, sino como paradigma en el estudio de la ciencia en general, tal como para el positivismo lógico de principios del siglo XX.

La tendencia estadística designa el tipo de comportamiento de un fenómeno. En Probabilidad Imposible los tipos de tendencia serán los siguientes, en modelos normales, aquellos donde la dispersión varía entre cero o máxima, tendencia a la igualdad de oportunidades o tendencia a la dispersión, y dentro de la tendencia a la dispersión, lo que serían estudios de sesgo, identificando tendencia de sesgo positivo o negativo. Mientras en los modelos omega, aquellos que en Probabilidad Imposible se caracterizan porque de N sujetos u opciones hay un subconjunto de sujetos u opciones ideales, entre dos y N menos uno sujetos u opciones, lo ideal sería que el comportamiento tendiera a la dispersión ideal.

El método de estudio analítico de las relaciones formales de la tendencia estadística será la aplicación de la lógica a la tendencia, y en Introducción a la Probabildad Imposible aparece denominado como el método analítico del silogismo de la tendencia.

De este modo el silogismo de la tendencia, es decir, la lógica de la tendencia será el método analítico para el estudio de las relaciones formales en la estadística de la probabilidad o probabilidad estadística, del mismo modo que la estadística de la probabilidad o probabilidad estadística será a su vez un método particular de estudio en las ciencias sintéticas.

El uso de la lógica como método analítico de relaciones formales entre elementos o ideas, en matemáticas y geometría, se remonta a la antigüedad clásica, y si bien se puede decir que uno de los primeros antecedentes es Pitágoras, el matemático que sistematiza el uso de la lógica como método de estudio analítico de las relaciones formales en una de sus disciplinas es Euclides, que de modo brillante aplica la lógica al estudio de los elementos geométrico, empezando por la definición de sus elementos más básicos, punto, línea, espacio, y llegando a la elaboración de una teoría lineal, pero compleja.

El método que usa Euclides para el establecimiento de los elementos en geometría es la lógica, a partir de definiciones fundamentales establece relaciones lógicas elaborando una teoría. El método euclideano no es otra cosa que la aplicación de la lógica deductiva en el campo de las ideas matemáticas, uno de los principales paradigmas de la antigüedad clásica. Método preconizado desde la filosofía por uno de sus principales autores, Platón, que de forma brillante desarrolla el método analítico de la lógica en el campo de las ideas filosóficas, que en puridad, el idealismo platónico, es la utilización del método socrático, la definición de ideas fundamentales a partir de cuyas relaciones lógicas  establece una teoría filosófica , en ausencia de contradicciones e incoherencias, pero compleja, desarrollando un modelo filosófico en donde de forma lineal los conceptos e ideas filosóficos se relacionan formalmente entre sí, en una estructura jerárquica, en donde la cúspide viene dada por la idea de bien. Una estructura sobre cuyas relaciones lógicas establece una teoría del alma, el Estado, la virtud, y la sabiduría.

Si bien se carecen de muchos datos sobre las influencias platónicas en Euclides, se sabe que Eudoxo de Cnido, discípulo de Platón, ejerció una importante influencia sobre el geométrica alejandrino.

Se puede decir que la tradición platónica-euclidea establece un primer paradigma que se basa sobre, a partir de la aplicación de la lógica deductiva para el establecimiento de relaciones formales a partir de unas definiciones fundamentales, la elaboración de un complejo esquema científico-filosófico aunque sobre concepciones lineales.

Ya en la modernidad la tradición platónica-euclidea, de construcción de teorías científico-filosóficas sobre la lógica deductiva, será desarrollada por la nueva ciencia a partir del Renacimiento, continuada por el racionalismo y el racionalismo crítico del Barroco y la Ilustración, bases para el postivismo y el estructuralismo durante el romanticismo y realismo del siglo XIX, y el positivismo lógico y neopositivismo  contemporáneo del siglo XX, y que a pesar de sus críticas y limitaciones se puede decir que, de modo adaptado al nuevo contexto paradigmático del siglo XXI ampliamente influenciado por las actuales teorías del caos, la complejidad, la incertidumbre, y la relatividad. El método analítico sobre la lógica deductiva, que en términos clásico se hubiera denominado simplemente dialéctica, sigue siendo en la actualidad un potente método de investigación científico-filosófica, donde a partir de unas definiciones fundamentales, el establecimiento de relaciones lógicas entre conceptos para la formación de nuevas teorías.

En Probabilidad Imposible el modo en que se adapta la tradición euclideo-platónica, de sobre el método lógico-deductivo la elaboración de una teoría analítica, es el silogismo de la tendencia, que no es otra cosa que la aplicación de la lógica a la tendencia estadística. A partir de una serie de definiciones fundamentales en el primer apartado introductorio de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, a saber, la definición analítica de qué es sujeto u opción, puntuación directa o frecuencia, y sus relaciones entre sí, un primer concepto nuevo y diferente dentro de probabilidad estadística, el concepto de probabilidad empírica, igual a puntuación directa o frecuencia de sujeto u opción entre sumatorio de puntuaciones directas o frecuencias.

Diferenciando el tipo de uso de la información que aporte la probabilidad empírica dependiendo del tipo de universo de la investigación. En universo de sujetos, también llamado universo de sujetos u opciones infinitos, el cálculo de la probabilidad empírica es igual a la puntuación directa entre sumatorio de puntuaciones directas, siendo la puntuación directa la estimación de intensidad de la cualidad estudiada del sujeto sobre una escala de medida.  A diferencia de los estudios en universos de opciones, también llamados de universos de opciones limitadas, por cuanto la probabilidad empírica será igual a la frecuencia de sujeto u opción entre sumatorio de frecuencia, siendo la frecuencia de opción en todo caso la ocurrencia en que se ha manifestado dicha opción, y la frecuencia total igual al sumatorio de todas las frecuencias de todas las opciones.

El concepto de probabilidad empírica dialécticamente establece una relación formal de igualdad  entre sujeto u opción de un lado, y de otro lado una relación formal de igualdad entre puntuación directa y frecuencia, de modo que ya sea sujeto u opción, puntuación directa o frecuencia, a los sujetos los trata como opciones, y las opciones como sujetos, y las puntuaciones directas las trata como frecuencia y la frecuencia como puntuación directa, de modo que finalmente en síntesis la probabilidad empírica es igual a puntuación directa o frecuencia de sujetos u opción entre sumatorio de todas las puntuaciones directas o frecuencias.

A partir de esta definición la definición de probabilidad teórica se deriva del concepto de probabilidad empírica, si empíricamente la probabilidad de un sujeto u opción es igual a su puntuación directa o frecuencia entre el sumatorio, en teoría en igualdad de condiciones para la ocurrencia o la estimación de magnitud de la cualidad, el resultado debería ser idéntico para todos los sujetos u opciones, luego la probabilidad teórica debería ser igual a la probabilidad que todo sujeto u opción debería tener en igualdad de oportunidades, lo que coincidentemente es igual al promedio del sumatorio de las probabilidades empíricas. El cociente entre N del sumatorio de todas las probabilidades empíricas será igual a la división de la unidad entre N, la inversión de N, 1/N, lo que es lo mismo a la probabilidad que en teoría deberían tener todos los sujetos u opciones en ausencia de sesgo, en igualdad de oportunidades. De modo que la probabilidad teórica es igual a media aritmética de las probabilidades empíricas.

El único caso en donde media aritmética y probabilidad teórica no son idéntica sería en la muestra de ceros, si se diera el caso que el valor empírico para toda N fuera igual a cero, lo que sería que todas las probabilidades empíricas fueran igual a cero, entonces aunque la probabilidad teórica seguiría siendo igual a inversión de N, 1/N, la media aritmética sería en realidad cero. De modo que en una muestra de ceros se da el caso que, aunque la muestra sea una muestra de ceros, en tanto que la inversión de N, 1/N, es distinta de cero, la Desviación Media y al Desviación Típica seguirán siendo inversión de N, 1/N, dado que es el sesgo negativo promedio de todos los sujetos u opciones con respecto la probabilidad teórica.

En Probabilidad Imposible se llama siempre sesgo a la diferencia entre probabilidad empírica y teórica, y se denomina Nivel de Sesgo normal de sujeto u opción,  de modo que el sesgo en el Segundo Método de Probabilidad Imposible sería lo más parecido al concepto de puntuación diferencial en la estadística tradicional, el primer método. Cuando en una muestra hay una tendencia a incrementar las diferencias entre probabilidades empíricas entonces hay una tendencia sesgada, en cambio si tiende a disminuir las diferencia entre probabilidades empíricas entonces tiende a igualdad de oportunidades.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística se dice que la bondad natural es el propio fenómeno que siempre la suma de todo el sesgo positivo de una muestra es compensando por la suma de todo el sesgo negativo, fenómeno que únicamente no ocurre en la muestra de ceros, en donde no hay sesgo positivo que compense la suma de todo el sesgo negativo.

Salvo en la muestra de ceros, única excepción, la suma de todo el sesgo negativo de una muestra es siempre idéntico a la suma de todo el sesgo positivo, motivo por el cual el sumatorio del valor absoluto de todos los Niveles de Sesgo se denomina Sesgo Total, y el Sesgo Total entre dos es igual al Máximo Sesgo Empírico Teórico Posible, dado que si por bondad natural, salvo en muestras de ceros, el sumatorio de sesgo positivo es igual al de sesgo negativo, y viceversa, luego el sumatorio del valor absoluto de todo el sesgo positivo y negativo es igual al Sesgo Total, entonces, en caso que sólo hubiera un solo sujeto u opción que tuviera sesgo positivo, su Nivel de Sesgo normal positivo debería compensar a todo el sesgo negativo de los demás sujetos u opciones que tuvieran sesgo negativo. Y viceversa, si se diera el caso que toda N sólo hubiera un sujeto u opción que tuviera sesgo negativo, entonces su Nivel de Sesgo normal negativo debería por sí solo compensar a la suma de todos los sesgos positivos de los demás sujetos u opciones. Luego independientemente de que sólo hubiera un único sujeto u opción con sesgo positivo, o un único sujeto u opción con sesgo negativo, su Nivel de Sesgo sería igual al Sesgo Total entre dos, de modo que el Sesgo Total entre dos es igual al Máximo Sesgo Empírico Posible.

El Máximo Sesgo Empírico Posible se diferencia del Máximo Sesgo Teórico Posible, en que mientras el Máximo Sesgo Empírico Posible es el máximo sesgo que pudiera tener un sujeto u opción dada una distribución empírica del sesgo, en cambio el Máximo Sesgo Teórico Posible es el máximo sesgo que cualquiera sujeto u opción en teoría pudiera alcanzar dadas unas condiciones de máxima dispersión.

Si la probabilidad empírica como toda la probabilidad es un valor que puede oscilar entre cero y uno, entonces lógicamente la Mínima Probabilidad Empírica Posible es la probabilidad cero, mientras la Máxima Probabilidad Empírica Posible es la probabilidad uno. Si la Máxima Probabilidad Empírica Posible es uno entonces teóricamente su Nivel de Sesgo sería igual a uno menos inversión de N, 1/N, que sería entonces el Máximo Sesgo Teórico Posible que puede alcanzar cualquier probabilidad empírica, dado que si el máximo valor de una probabilidad empírica es uno luego uno la Máxima Probabilidad Empírica Posible, entonces ninguna probabilidad empírica puede tener en teoría un Nivel de Sesgo igual a uno menos inversión de N, 1/N, siendo así el Máximo Sesgo Teórico Posible.

De igual modo, si lógicamente el mínimo valor de una probabilidad es cero, luego su Nivel de Sesgo sería cero menos inversión de N, dicho sesgo sería el Máximo Sesgo Negativo Posibe.

De modo que si en una muestra se dan las condiciones de máxima dispersión posible, que de toda N de todos los sujetos u opciones sólo uno tuviera una puntuación directa o frecuencia distinta de cero, luego sólo un sujeto u opción tuviera probabilidad empírica distinta de cero, de modo que su probabilidad empírica fuera igual a su puntuación directa o frecuencia entre el sumatorio, que siendo todas las demás cero entonces el sumatorio sería su misma puntuación directa o frecuencia, luego la probabilidad empírica sería igual a uno, es decir, Máxima Probabilidad Empírica Posible, entonces ese sujeto cumpliría las condiciones para que se diese el Máximo Sesgo Teórico Posible y Máximo Sesgo Empírico Posible de forma simultánea.

Y siendo que el Sesgo Total es igual a la suma de todos los sesgos, de modo que la suma del sesgo positivo compensa a la suma de todo el negativo, y viceversa, el Máximo Sesgo Teórico Posible sería igual al producto de Máximo Sesgo Negativo Posible por N menos uno, luego la Desviación Media sería igual al promedio del duplo del Máximo Sesgo Teórico Posible, siendo dicha Desviación Media entonces la Máxima Desviación Media Teórica Posible, de la cual se deduce la Máxima Varianza Teórica Posible, y la Máxima Desviación Típica Teórica Posibles.

Esto es sólo una pequea muestra de cómo en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, por la simple aplicación de la lógica a la tendencia, en Probabilidad Imposible denominado silogismo de la tendencia, del propio encadenamiento de premisas lógicas se elaboran nuevos conceptos estadísticos, formulándose una teoría compleja que desarrolla nuevos modelos de estadística descriptiva e inferencial.

A partir nuevos estadísticos individuales y muestrales de tendencia central y dispersión, por la simple aplicación de la lógica deductiva, se elaboran nuevos modelos de contraste de hipótesis, individuales y muestrales, ya sea sobre la crítica racional de diferencias o proporciones entre estadísticos empíricos y teóricos, para estudios intramuestrales o intermedicionales, tal como propone Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

 
Rubén García Pedraza, Madrid a 19 de diciembre del 2015

sábado, 5 de diciembre de 2015

Probabilidad empírica máxima


Una vez calculadas todas las probabilidades empíricas de todos los sujetos u opciones de la muestra, se llamará probabilidad empírica máxima a la mayor de todas. En una muestra N de sujetos u opciones, habiendo calculado a priori por cada sujeto u opción su probabilidad empírica, la probabilidad empírica que alcance el mayor valor de toda la muestra se denominará probabilidad empírica máxima, o máxima probabilidad empírica, o sencillamente se llamará máxima, representando la máxima empírica de toda la muestra, y simbolizándose en Probabilidad Imposible  bajo el símbolo “p(xi+)”. 

p(xi+) = máxima probabilidad empírica posible 

En introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, siempre que se mencione la probabilidad empírica máxima, o máxima probabilidad empírica, o simplemente la máxima, se hará mención a la mayor probabilidad empírica de toda la muestra de probabilidades empíricas. De forma que en modo alguno debe confundirse con la Máxima Probabilidad Teórica Posible, la probabilidad uno.

Teóricamente la probabilidad es una dimensión que oscila entre cero y uno, siendo la probabilidad uno es la Máxima Probabilidad Teórica Posible, y la probabilidad cero la Mínima Probabilidad Teorica Posible. En los estudios normales de sesgo positivo en donde el propósito sea el logro  de las condiciones de mayor dispersión posible, el objetivo de la investigación sería que el sujeto u opción ideal alcance probabilidad uno, la Máxima Probabilidad Teórica Posible, y el resto la Mínima Probabilidad Teórica Posible, probabilidad cero. De modo que entonces, bajo condiciones de máxima dispersión la Desviación Media tendería a Máxima Desviación Media Teórica Posible, y la Desviación Típica tendería a Máxima Desviación Típica Teórica Posible.

Salvo que que un sujeto u opción tenga una probabilidad empírica igual a uno, que entonces su probabilidad empírica sería igual a Máxima Probabilidad Teórica Posible, lo más habitual en los estudios normales de sesgo positivo es que los valores de las probabilidades oscilen entre cero y uno, por lo que no necesariamente la mayor probabilidad empírica de la muestra tiene porque ser igual a uno, luego aun siendo la máxima probabilidad empírica de la muestra se encontrará por debajo de uno, la Máxima Probabilidad Teórica Posible.

Aunque la probabilidad empírica máxima, la máxima empírica, se encuentre por debajo de probabilidad uno, en todo caso, siempre que sea realmente la máxima de toda la muestra deberá ser una probabilidad empírica superior a la probabilidad teórica, inversión de N, la media aritmética de las probabilidades empíricas, dado que tal caso reflejaría un comportamiento propio de los modelos normales de igualdad de oportunidades.

De esta manera la probabilidad empírica máxima es aquella probabilidad empírica de la muestra que alcanza el mayor valor empírico de la muestra, luego es en esencia la máxima empírica, diferenciándose de la máxima teórica definida por la probabilidad uno, Máxima Probabilidad Teórica Posible, en que mientras la máxima teórica, probabilidad uno, es el máximo valor al que teóricamente puede alcanzar una probabilidad empírica, sin embargo la máxima empírica representada por la probabilidad empírica máxima, la mayor probabilidad empírica de toda N, es una máxima empírica que oscila entre valores superiores a inversión de N y la máxima teórica.

La máxima empírica, para ser realmente una máxima, no puede ser igual a inversión de N, 1/N, su límite inferior de oscilación, y como mucho puede ser igual a probabilidad uno, la Máxima Probabilidad Teórica Posible, el límite superior de cualquier probabilidad empírica.

 Valores de oscilación de la máxima empírica=
1/N < p(xi+) ≤ 1 

La máxima empírica sólo puede oscilar entre valores superiores a inversión de N, 1/N, o iguales o inferiores a probabilidad uno. Luego en los modelos normales de igualdad de oportunidades, cuando para toda N la probabilidad empírica es igual a inversión de N, 1/N, no habría máxima empírica, dado que todas las probabilidades serían iguales a la  probabilidad teórica, luego Desviación Media y Desviación Típica igual a cero.

Es en los modelos normales de sesgo  donde sí habría una probabilidad empírica que actúe de máximo valor empírico, identificable como probabilidad empírica máxima, o máxima probabilidad empírica, que sería la máxima empírica, un valor superior a la probabilidad teórica, luego con un Nivel de Sesgo normal positivo distinto de cero proporcionalmente se eleve por encima de la inversión de N, y conforme la máxima empírica tienda a la máxima teórica, la probabilidad uno, de forma que sólo si la máxima empírica es igual a la máxima teórica el Nivel de Sesgo normal de la máxima empírica sería igual al Máximo Sesgo Teórico Posible, igual a uno menos inversión de N.


Máximo Sesgo Teórico Posible =
1 – 1/N 

Cuanto más próxima sea la máxima empírica a la máxima teórica, mayor similitud entre el Nivel de Sesgo normal positivo de la máxima empírica y el Máximo Sesgo Teórico Posible. Y a la inversa, cuanto más próxima sea la máxima empírica a la inversión de N, 1/N, entonces desciende su Nivel Sesgo normal positivo.

Luego, de igual forma que se puede decir que la máxima empírica, “p(xi+)”, oscila entre valores superiores a inversión de N, 1/N, o iguales o inferiores a uno, proporcionalmente su Nivel de Sesgo oscila entre cero y el Máximo Sesgo Teórico Posible. Dado que para que realmente se pueda hablar de máxima probabilidad empírica su comportamiento tiene que diferir de inversión de N, y debe ser mayor que las demás probabilidades empíricas, la máxima nunca podrá tener Nivel de Sesgo igual a  cero, y en todo caso el límite superior de oscilación del Nivel de Sesgo de la máxima empírica  no puede superar el Máximo Sesgo Teórico Posible. De lo que se deduce que el Nivel de Sesgo normal de la máxima empírica en cualquier tipo de universo, sólo puede ser una variable entre valores superiores a cero y uno menos inversión de N, 1/N.

 Valores de oscilación del Nivel de Sesgo de la máxima=  
0 < ( p(xi+) – 1/N)   (1 – 1/N) 

La estructura del Nivel de Sesgo de la máxima empírica, al igual que en el resto de variables y conceptos que forman Probabilidad Imposible, se encontrará íntimamente ligado a la magnitud de la muestra N de sujetos u opciones, cuya magnitud oscila entre dos e infinito, es decir, para hablar de estudios estocásticos propiamente dichos la muestra de sujetos u opciones no puede ser inferior a dos, luego N igual a dos sería el límite inferior en que puede oscilar N, caso específico que sólo puede darse en aquellos universos de opciones limitados que el universo se limite a exclusivamente sólo dos opciones, y como máximo la magnitud N puede tender a infinito, especialmente en universos de sujetos u opciones infinitos.

Dependiendo de la estructura de N, si es una muestra perteneciente a un universo de opciones limitadas, o es una selección muestral de un universo de sujetos u opciones infinitos, la magnitud N puede oscilar entre una serie de opciones limitadas, como mínimo dos, o depender de un universo que tienda a infinito.

En los universos de opciones limitadas en donde se estudie el comportamiento de la máxima empírica en tendencia a equipararse a la máxima teórica, la probabilidad uno, dentro de modelos normales de sesgo positivo que aspiran a las condiciones de máxima dispersión posible, el máximo sesgo empírico que puede alcanzar la máxima empírica sería el Máximo Sesgo Teórico Posible igual a uno menos inversión de N, 1/N, quedando definida N por las opciones limitadas que contemple el estudio.

Dentro de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se suele decir que el paradigma de universo limitado es el universo limitado a dos opciones, por cuanto es el más mínimo universo posible, de modo que en universos limitados a dos opciones el Máximo Sesgo Teórico Posible al que puede tender el Nivel de Sesgo normal de la máxima empírica es igual a “0,5”, que es el mayor valor que puede alcanzar el Máximo Sesgo Teórico Posible en Probabilidad Imposible.

Mientras que en los universos de sujetos u opciones infinitos, en tanto que N tienda a infinito, entonces la inversión de N, 1/N, tiende a cero, luego bajo condiciones de tendencia a infinito de N entonces el Máximo Sesgo Teórico Posible tendería a la unidad, dado que uno menos la tendencia a cero de inversión de N, 1/N, sería igual a un diferencial que bajo condiciones de tendencia a infinito el diferencia tendería a uno.

Siendo N una variable que oscila entre dos e infinito, dado que para hablar de universo estadístico el mínimo universo posible sería bajo condiciones de N igual a dos,  y el límite superior sería infinito, luego el Máximo Sesgo Teórico Posible es una variable que oscila entre “0,5” y uno, “0,5” en universos de dos opciones, y uno en universos infinitos, entonces quedando definido el límite inferior de los valores de oscilación del Nivel de Sesgo de la máxima empírica por cualquier valor superior a cero, el límite superior de oscilación del Nivel de Sesgo de la máxima empírica, dependiendo de la magnitud N, oscilaría entre “0,5”en universos limitados a dos opciones, y la tendencia a uno en universos infinitos.

De modo que en universos limitados a dos opciones, los valores del Nivel de Sesgo de la máxima sólo puede oscilar entre valores superiores a cero en su límite inferior, y como máximo “0,5”  en su límite superior, límite superior que puede tender a uno conforme N tienda a incrementarse, límite superior que tenderá a uno conforme N tienda a infinito.

De modo que si la probabilidad empírica es una variable que puede oscilar entre cero y uno, cero sería la Mínima Probabilidad Empírica Posible o límite inferior de oscilación de la probabilidad empírica, y uno sería la Máxima Probabilidad Empírica Posible o límite superior de oscilación de la probabilidad empírica, entonces conforme N tiende a infinito el Nivel de Sesgo de la máxima empírica igualmente es una variable que puede oscilar entre valores superiores a cero y la tendencia a uno, en donde para que realmente se pueda hablar de máxima empírica su Nivel de Sesgo no puede ser igual a cero dado que entonces sería un modelo de igualdad de oportunidades donde no tendría sentido hablar de sujetos u opciones superiores, y el límite superior del Nivel de Sesgo de la máxima empírica conforme N tienda a infinito es la tendencia a uno de su Nivel de Sesgo.

La importancia del estudio de la máxima empírica, es que mientras la Máxima Probabilidad Teórica Posible es sólo una máxima teórica que no tiene porque tener correlatos en la realidad, la máxima empírica si es una variable real que se puede obtener del estudio de los hechos empíricos, imprescindible para la creación de un modelo lo más isomorfo posible de lo que se estudia.

A partir del estudio de la máxima empírica además se pueden elaborar estadísticas relativas a este estadístico, tal como se explican en el apartado 14 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

 

Rubén García Pedraza, Madrid a 5 de diciembre del 2015

sábado, 28 de noviembre de 2015

La variable independiente


Una variable es un factor de estudio mensurable, en tanto que medición de una cualidad, de la cual se puede extraer un conjunto de muestras, por la medición de la intensidad o grado de ocurrencia de esa misma cualidad en un conjunto de sujetos u opciones, o repetidas mediciones en un mismo objeto de estudio elaborando una muestra de puntuaciones directas o frecuencias, sobre la que existe al menos en teoría la hipótesis, que no siendo constante, es un factor al que se le atribuye un grado de causalidad en la sucesión de otros fenómenos, denominados variables dependientes.

Desde los modelos estadísticos clásicos de investigación experimental la variable independiente era la variable de cuya manipulación por se estudiaban sus efectos sobre las variables dependientes. De modo que la principal diferencia entre variable independiente y dependiente, es que mientras la independiente era de manipulación experimental, la variable dependiente era aquella sobre la que se observaban sus efectos. En un estudio médico, la variable independiente sería el tipo de tratamiento médico, la dependiente la evolución de la sintomatología en el paciente. En un estudio pedagógico, la variable independiente sería el tipo de método educativo, la dependiente el rendimiento escolar. En un estudio de astrofísica la variable independiente el tipo de manipulación sobre las partículas, la dependiente el tipo de comportamiento que manifiesten las partículas. En líneas generales, la variable independiente es aquella sobre la que opera el equipo de investigación, la dependiente aquella de cuyos resultados se observan los efectos de la manipulación experimental.

Esta definición clásica, variable independiente aquella objeto de manipulación, dependiente aquella objeto de observación de sus efectos, es una definición todavía hoy válida en determinados contextos en donde el método experimental clásico sea útil, pero después de los avances en epistemología en el siglo XX van apareciendo nuevas definiciones, acorde a los nuevos progresos en metodología de investigación, uno de ellos la aparición del método quasi-experimental, en ciencias sociales, y la aparición de nuevos paradigmas que sobre conceptos como incertidumbre, relatividad, caos, complejidad, van elaborando nuevas definiciones sobre los conceptos tradicionales que apuntan hacia nuevos marcos interpretativos.

En el caso de la estadística de la probabilidad o probabilidad estadística, en el momento que se mueve en el terreno de las ciencias estocásticas, el determinismo clásico de que para todo efecto hay una causa razonable se desvanece en una nube de multicausalidad compleja, en donde la supuesta linealidad se evapora en un cúmulo de factores multicausales, en donde a menudo lo más acertado sería el estudio en todo caso de las causas probables de un fenómeno, fuera de cualquier determinismo.

Frente los modelos clásicos de la probabilidad de carácter determinista, el paradigma claro esta Laplace, a lo largo del siglo XX aparecen nuevos modelos de estadística y probabilidad que lejos del determinismo desarrollan nuevos esquemas indeterministas, en donde la supuesta secuencia  lineal causa y efecto puede estar sujeta a alteraciones en función de la propia naturaleza aleatoria en la distribución caótica de los fenómenos.

De hecho en el apartado 13 de Introducción a la Probabilidad Imposible, estadística dela probabilidad o probabilidad estadística, se parte de una concepción cosmológica de la realidad en la que a partir de accidentes aleatorios hay posibilidad de surgimiento de contingencias que den lugar a patrones de regularidad estable: de múltiples accidentes en el universo por choques entre sí de polvo cósmico y pedazos de materia en el espacio puede surgir cuerpos celestes, galaxias, y planetas, contingencias que pueden lugar a patrones de regularidad estable, sistemas planetarios bajo unas órbitas, cuerpos celestes de cuyos accidentes dentro de sí pueden surgir diferentes contigencias, dinámicas geológicas, atmosféricas, o en el planeta Tierra la aparición de la vida, la biología, de cuya evolución, no exenta de accidentes aleatorios van surgiendo diferentes combinaciones biológicas, que unido a diferentes accidentes geológicos y atmosféricos, extinciones masivas, e impactos de meteoritos, van formando un lugar donde es posible la aparición de la vida humana, que a su vez, por diversos azares de la evolución va derivando a una sociedad compleja. La historia social, fiel reflejo de la historia natural, es la sucesión de accidentes aleatorios de los que sin embargo surgen contingencias capaces de dar lugar a patrones de regularidad estable, al menos hasta que otro accidente crea nuevas condiciones de posibilidad para nuevas contingencias y nuevos patrones de movimiento regular y dinámico de la materia y la energía en el tiempo y el espacio, en síntesis, lo que sería la historia.

En un modelo indeterminista como Probabilidad Imposible, cualquier atribución de causa absoluta o apodíctica a una variable independiente es cuestionable, entre otras razones porque en un mundo regido por las leyes del azar, la ley natural, siempre hay un margen de duda racional para el establecimiento de una ley universal salvo la ley del azar, la ley de probabilidades. En este sentido, la única relación lógica entre una variable y otra puede ser sólo en términos de probabilidad, una relación no siempre causal, por cuanto pueden ser relaciones simultaneidad o retroalimentación.

El hecho que dos variables coincidan en el tiempo o coincida que una sea posterior a la otra, aun en repetidas ocasiones, no implica que sean causa o efecto, pueden ser simplemente simultáneas. Supongamos que en un estudio médico una vez aplicado un tratamiento médico se observan dos efectos diferentes: salvo que tengamos pruebas que lo demuestren, no hay razón suficiente para el establecimiento de relaciones formales entre ambos efectos, y en todo caso la relación entre los efectos y el tratamiento médico será dentro de un margen de duda racional, proporcional a lo márgenes de error aceptados en la investigación científica.

En Probabilidad Imposible se distinguen dos tipos de error, el error de hecho y el error racional. En Introducción a la Probabilidad Imposible, estadística de laprobabilidad o probabilidad estadística, se denomina error de hecho al error que de hecho estamos aceptando cada vez que aceptamos una muestra, por cuanto aceptar la realidad en sí ya de por sí es un error: al aceptar la muestra que obtenemos de la realidad aceptamos el error de representatividad muestral, igual a la inversión de la muestra. En universos de sujetos u opciones infinitos la probabilidad de error de representatividad muestral es la propia inversión de N, 1/N, y en universos de opciones limitadas la probabilidad de error de representatividad muestral es igual a la inversión de la muestra de puntuaciones directas o frecuencias, 1/∑xi.

En Probabilidad Imposible se denomina error racional el que racionalmente aceptamos cuando se acepta la probabilidad crítica, en donde ya sea una probabilidad crítica para el contraste de hipótesis en la prueba estadística, en estadística inferencial, para la crítica racional de la realidad, sobre un margen de fiabilidad igual a porcentaje X de fiabilidad, entre cien, por la máxima tendencia, o margen de error igual a porcentaje X de error, entre cien, por la máxima tendencia, en cualquier caso ya sea estudio de error o fiabilidad siempre hay un margen de error racional, en estudio de error el porcentaje X de error, en estudio de fiabilidad la diferencia entre cien menos el porcentaje X de fiabilidad.

La relación lógica entre el tratamiento médico y los efectos es de un nivel de causalidad probable sujeto a un margen de incertidumbre proporcional al margen de error, luego siempre hay espacio suficiente para la duda, luego la variable independiente será aceptada racionalmente universal dentro de un marco de duda razonable, en donde haya casos en donde la variable independiente no surta los efectos deseados por diversos motivos.

Si en un estudio de N sujetos u opciones en el tratamiento médico no se ha incluido a pacientes con un determinado perfil genético, o determinadas complejidades medicas previas, o que tengan determinadas alergias o intolerancias a ciertos tratamientos médicos, en el momento que el tratamiento sea suministrado a personas con este tipo de perfil, el grado de error del tratamiento es muy elevado, luego no es completamente universal, luego su aceptación universalmente racional es relativo a la probabilidad de error, de hecho y racional.

Por otro lado, cualquier atribución causal entre fenómenos simultáneos, o sucesivos en el tiempo, sin suficientes pruebas racionales de alguna relación probablemente causal sería infundada, algo que a menudo sucede en la ciencia, la atribución causal a fenómenos que en realidad son sólo puras coincidencias sin haber en realidad relación formal alguna.

De otro lado otro tipo de relaciones que no tienen porque acomodarse al concepto clásico de variable independiente son las relaciones de retroalimentación. Si dos variables se retroalimentan entre sí, o por el contrario hay dinámicas de entropía negativa, cualquier atribución de causa y efecto en un sentido clásico carece de sentido. Si en un experimento educativo el desarrollo de la inteligencia matemática mejora la comprensión lectora, la atribución causal de la que la inteligencia matemática tiene por efecto la comprensión lectora carecería de fundamento siempre y cuando no se testase además que, en un experimento de mejora de la comprensión lectora mejora a su nivel el rendimiento en matemáticas.

En diversas investigaciones educativas se ha puesto de manifiesto como la mejora de las capacidades matemáticas mejora la capacidad de comprensión simbólica del alumno, lo que puede tener a su vez mejoras en la comprensión lectora, y viceversa, la mejora de la comprensión lectora puede repercutir positivamente en matemáticas por cuanto el alumno comprende mejor los enunciados de los ejercicios de matemáticas. En síntesis, las capacidades matemáticas y lingúisticas están interconectadas, habiendo relaciones de retroalimentación entre sí.

Hoy en día aunque todavía en libros de estadística siga apareciendo en su noción experimental clásica, es la variable objeto de manipulación cuyos efectos se observan en la variable dependiente, hay que entenderlo en un sentido más amplio. De hecho hoy en día este concepto de variable independiente escapa al método experimental.

Si estudiamos como las tormentas solares afectan a determinados fenómenos atmosféricos y climáticos en nuestro planeta, la variable independiente serían las tormentas solares, y la variable dependiente serían sus efectos sobre la Tierra, sin que en ningún momento al variable independiente pudiera ser objeto de manipulación científica.

Si estudiamos el efecto de la población de abejas sobre la biodiversidad de la flora de un bosque, y estudiamos el efecto de la biodiversidad de la flora del bosque sobre la fauna, y se establecen correlaciones de, en proporción a la población de abejas, proporción de biodiversidad en flora y faura,  estamos haciendo un estudio estadístico y de probabilidad en donde la base de la cadena es la población de abejas, sin que la población de abejas fuera necesariamente una variable objeto de manipulación experimental, salvo que un equipo de zoólogos aumentara la población de abejas por traer abejas de otros sitios, o se llevara a cabo un estudio experimental de cómo aumentar artificialmente la población de abejas utilizando técnicas de apicultura.

En definitiva, hoy en día por variable independiente no se entiende sólo la variable experimental o variable objeto de manipulación, hoy en día la variable independiente es la variable de la que se quiere estudiar su efecto sobre otras variables, denominadas dependientes. En donde ademá se da la complejidad que la variable independiente es sólo una causa probable, entre otras muchas, de modo que en realidad la variable independiente puede ser una covariable que actúe junto a otros en el resultado de un efecto.

A una variable independiente se la llamaría covariable de un efecto en un estudio multicausal o multifactorial donde diferentes variables interactuarían en la aparición de un fenómeno, de modo que podría atribuirse a cada variable un porcentaje de probabilidad causal en la ocurrencia del fenómeno.

Dentro de la naturaleza se dan infinidad de circunstancias en donde un fenómeno es producto de una combinación de diferentes factores, en donde en realidad lo que mide la probabilidad empírica del fenómeno es la probabilidad de que esa combinación se de en la naturaleza. Si estudiamos la probabilidad que surja el arcoíris un día de lluvia estamos estudiando la probabilidad de que se dé una adecuada combinación de lluvia y luz como para producir el efecto óptico del arcoíris.

Cuando diferentes variables interactúan para dar lugar a un fenómeno, la probabilidad del fenómeno es la probabilidad de que se dé la combinación de factores que lo hacen posible. Si en estudio sobre factores de bienestar social como tasas de empleo, renta per capita, nivel educativo… a factor se le atribuye un porcentaje de contribución al bienestar, podría estudiarse como la combinación de una serie de factores, donde cada factor contribuye en un determinado porcentaje, que podría ser ponderado y estudiado de forma cuantitativa.

Si en un estudio quasi-experimental quisiéramos estudiar el fenómeno del bienestar social en diferentes países, unidades de análisis, habría que identificar los factores que contribuyen a este fenómeno,  y proceder a la comparación entre su comportamiento en diferentes países, siendo las variables independientes de los cuales queremos conocer su efecto en el bienestar de las unidades de análisis.
 
Rubén García Pedraza, Madrid a 28 de noviembre del 2015

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

sábado, 14 de noviembre de 2015

La muestra de dos opciones


Una muestra de dos opciones es cuando la muestra N se limita sólo a dos posibles sujetos u opciones exclusivamente, ya sea en ciencias naturales o sociales. Si lanzamos una moneda al aire los resultados normalmente son cara o cruz, el ser humano sólo puede ser hombre o mujer, el estudio del comportamiento de los fotones puede ser como honda o partícula, la carga eléctrica de una partícula sólo puede ser positiva o negativa.

Si bien, se puede dar el caso que al lanzar una moneda al aire finalmente al caer se sostenga sobre el borde de la circunferencia luego no sea ni cara ni cruz, un ser humano sea hermafrodita, independientemente de la modalidad de estudio un fotón se comporte simultáneamente como honda y partícula, y además de los electrones y protones haya neutrones. Independientemente de que en el comportamiento de la realidad no sea reductible a dimensiones binarias, bajo determinadas circunstancias hay estudios donde la muestra N de sujetos u opciones se reduce a sólo dos opciones, siendo el paradigma de universo limitado, el universo limitado a dos opciones.

Un universo limitado de opciones es aquel en donde el objeto de la medición es el recuento del número de ocurrencias por cada opción, siendo el total de ocurrencias por opción igual a la frecuencia de la opción, y además es un tipo de universo que por su propia naturaleza no tiende a infinito. El número de opciones de ese universo será igual a la muestra N, de modo que la probabilidad empírica de cada opción será igual a la frecuencia de la opción entre la frecuencia total. Es dentro de los universos limitados donde el concepto de probabilidad empírica del Segundo Método guarda más similitudes con el concepto clásico de la estadística tradicional, el primer método, de frecuencia relativa. Si bien el concepto tradicional de frecuencia relativa no guarda absolutamente ninguna identidad con el modo en que el Segundo Método de Probabilidad Imposible aplica el concepto de probabilidad empírica a los universos de sujetos, donde la probabilidad empírica se calcularía sobre la puntuación directa de sujeto u opción entre el sumatorio de puntuaciones directas. Diferenciándose la puntuación directa de la frecuencia en que la frecuencia de una opción es el sumatorio del total de ocurrencias de una opción, mientras la puntuación directa es la magnitud obtenida sobre una escala de medida en la estimación de la intensidad de una cualidad en un sujeto.

Una de las principales diferencias entre la frecuencia relativa de la estadística tradicional, el primer método, y la probabilidad empírica del Segundo Método, es que en la probabilidad empírica se equiparan los conceptos de sujeto u opción, haciéndose el mismo tratamiento de los datos obtenidos de cualquier tipo de medición, ya sea en forma de frecuencia o puntuación directa, síntesis que se hace en el concepto de probabilidad empírica de sujeto u opción, igual a la puntuación directa o frecuencia de sujeto u opción entre el total de puntuaciones directas o frecuencias.

Una vez establecidas las diferencias entre el concepto de la estadística tradicional, primer método, de frecuencia relativa, y el concepto del Segundo Método de Probabilidad Imposible sobre probabilidad empírica de sujeto u opción, se distinguen así fácilmente los dos tipos de universos, los universos de opciones y los universos de sujetos tratados como si fueran opciones. Los universos de opciones son de naturaleza limitada, las opciones no infinitas. Y los universos de sujetos tratados como si fueran opciones son así entonces universos de sujetos u opciones que si tienen posibilidad no descartable de tendencia a infinito, ya sea dentro de una posible historia infinita del universo en sí mismo, como dentro de los estudios poblacionales, aunque el estudio se limite en el espacio-tiempo, la posibilidad de infinidad de mediciones entre un periodo de tiempo determinado.

Dentro de los universos limitados el número de opciones que integren el universo serán los límites de ese universo, en donde se dan cabida tanto universos formados por opciones naturales o sociales, como los estudios limitados a categorías discretas, donde de una escala magnitud se establecen categorías definidas por intervalos de magnitud según  límites inferiores o superiores por cada categoría, ordenándose así en forma de categorías discretas. En los estudios de categorías discretas se contabilizarían los sucesos cuya estimación de magnitud estuviera dentro de cada categoría, y el sumatorio del número de sucesos por categoría sería su frecuencia, formando así parte de los universos de opciones limitadas, en este caso, limitadas a categorías discretas. La definición de los universos de opciones limitadas se explica de forma más detallada en el apartado 10 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

De este modo los universos de opciones limitadas integran una enorme variedad de tipos de universos, en donde el número de opciones establecen los límites de ese universo, por ejemplo si lanzamos al aire un dado de seis caras es un universo formado por seis opciones. Si en ciencias sociales se define el estado civil según la persona sea: soltero, casado, separado, divorciado, viudo; el estado civil de una persona viene definido por un universo de  cinco opciones.

El número de opciones en un universo limitado es variable, aunque nunca tendente a infinito, siendo el mínimo posible de opciones igual a dos, una muestra N de sujetos u opciones para que sea susceptible de estudio estadístico debe tener como mínimo dos opciones, si hubiera menos de dos opciones no sería un estudio estocástica.

La primera cualidad de la muestra de dos opciones es que es la muestra más mínima a que pueda llegar N para que haya estudio estocástico, siendo la muestra N una dimensión variable entre dos e infinito, si bien, en caso que N tienda a infinito necesariamente deberá hacer una selección muestral para el estudio, comprendiendo un margen de error de representatividad muestral igual a inversión de N, 1/N.

Dos sería el mínimo indispensable para estudio estocástico, no pudiendo haber en absoluto muestras inferiores a dos en el método estadístico. Y es en muestras de dos opciones donde se observan una serie de cualidades propias.

En muestras de dos opciones de forma universal siempre la media aritmética es igual a “0,5”, y salgo que la probabilidad empírica de ambas opciones sea igual a probabilidad teórica, se daría el caso que siempre que tuvieran el más mínimo sesgo, entonces el Nivel de Sesgo de cada opción sería siempre igual al Máximo Sesgo Empírico Posible, el cual es igual al Sesgo Total entre N, en este caso Sesgo Total entre dos, independientemente de la magnitud del sesgo. Que de darse bajo condiciones de máxima dispersión, que un sujeto u opción tenga probabilidad uno, y el otro probabilidad cero, la Desviación Media sería también igual a “0,5”.

 

La muestra de dos opciones es el único tipo de muestra donde inversión de N, 1/N, sería, además de media aritmética, la Máxima Desviación Media Teórica Posible o Máxima Desviación Típica Posible. De modo que en universos de dos opciones coinciden la media aritmética y la máxima dispersión teórica posible de la muestra.

En la obra Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se menciona en numerosas ocasiones que el método analítico por el cual se ha ido elaborando la teoría es el silogismo de la tendencia, que en resumidas cuentas se puede sintetizar como la aplicación de la lógica al estudio de la tendencia, estudio que normalmente se centra en los límites de la tendencia.

Si estudiamos los límites de la tendencia en los conceptos que integran Probabilidad Imposible, uno de estos conceptos es precisamente el concepto N, que hace mención a la muestra N sujetos u opciones, en donde el estudio de la tendencia rápidamente indicaría que N es una variable que puede oscilar entre dos e infinito, dos porque es el número indispensable de opciones para que haya estudio estocástico, e infinito por la propia existencia de universos que pueden tender a infinito, de los cuales si acaso sólo estudiamos una muestra, la que finalmente se estudiará en la muestra de N sujetos u opciones, una muestra suficientemente grande como para que sea representativa y matemáticamente operativa.

El motivo por el cual no podemos trabajar con una muestra infinita es porque matemáticamente no sería operativa, en primer lugar porque la propia inversión de N no sería operativa. Si N tiende a infinito entonces la inversión de N, 1/N, la probabilidad teórica, sería igual a cero, además de que la muestra de puntuaciones directas o frecuencias tendería a cero, luego la probabilidad empírica sería igual a cero, luego tanto la probabilidad empírica y teórica serían igual a cero haciendo inoperativo cualquier cálculo matemático de la tendencia. Lo que a su vez genera problemas sobre el grado en que realmente un constructo matemático de muestras de sujetos no finitas son realmente representativas sobre lo que ocurre en el infinito, tal como se explica en los apartado 7, 8 y 9 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad o probabilidad estadística.

En el momento que se aplica la lógica a la tendencia de los conceptos de Probabilidad Imposible, a medida que todo tiende a infinito, tanto N y el sumatorio de puntuaciones directas o frecuencias, el modelo empírico tendería a cero, cuando en la realidad real, material y verdadera del universo no es así, un fenómeno que además de contradicciones lógicas, implica que aplicado a la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible, a medida que N aumenta en tendencia a infinito entonces la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible también tienden a cero.

De modo que cuando en muestras de dos opciones, la muestra más mínima e indispensable posible para que se pueda hablar de estudio estocástico, se da el caso que la Máxima Desviación Media Teórica Posible y la Máxima Desviación Media Teórica Posible es igual a “0,5”, entonces se concluye que la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible son dimensiones que sólo pueden oscilar entre “0,5”, y “0”, en donde el máximo valor que pueden alcanzar la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible es igual a “0,5” bajo la condición exclusiva de que la muestra N sólo integre  dos opciones. Conforme N tiende a incrementarse, por el aumento de sujetos u opciones en el modelo matemático, necesariamente la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible entonces tienden a valores inferiores a “0,5”.

De modo que al igual que la propia probabilidad teórica igual a inversión de N, 1/N, es una variable matemática dependiente de la magnitud N, en donde conforme N tiende a infinito entonces la inversión de N, 1/N, tiende a cero, siendo el máximo valor posible de inversión de N, ¡/N, igual a “0,5” bajo supuesto que N sólo integre dos opciones. Del mismo modo la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible es una variable dependiente de N, en donde tienden a cero conforme N tiende a infinito, de modo que el máximo valor que pueden alcanzar la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible es igual a “0,5”.

Por lo que tanto la probabilidad teórica como la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible son dos variables dependientes de N, cuyo máximo valor es “0,5”, bajo supuesto que N sea igual a dos. Y conforme N tiende a infinito estas variables tenderán a cero, si bien, el único y exclusivo caso en donde probabilidad teórica y Máxima Desviación Media Teórica Posible y Máxima Desviación Típica Teórica Posible llegan a tener el mismo valor es sólo en su límite máximo de “0,5”, cuando N es igual a dos. Porque a medida que N sea superior a dos, en función de la magnitud N cada variable será inferior a “0,5”, pero representando magnitudes diferentes, ente otros motivos porque, una vez que N alcance un valor suficiente, dejando de ser la muestra de N opciones de un universo limitado, y pase a convertirse en la muestra N de sujetos u opciones de un universo de sujetos u opciones infinitos, dentro de la multifuncionalidad de inversión de N, 1/N, entonces la inversión de N, 1/N, pasará a ser un estadístico de probabilidad de dispersión teórica, y probabilidad de error de representatividad muestral. En tanto que probabilidad de dispersión teórica en universos infinitos inversión N, 1/N, siempre será inferior a la Máxima Desviación Media Teórica Posible, y la Máxima Desviación Típica Teórica Posible, una diferencia que sin embargo irá decreciendo conforme N tienda a infinito.

De modo que en sus límites extremos, que N sea igual a dos, y que N tienda a infinito, es en donde se produce la mayor coincidencia entre inversión de N y los estadísticos de máxima dispersión muestral teórica posible. En muestras de dos opciones porque ambos serán igual a “0,5”, y en universos de sujetos u opciones infinitos conforme N tienda a infinito tanto la inversión de N como los estadísticos de máxima dispersión muestral teórica posible tenderán a cero, en el caso de inversión de N por cuanto tenderá a uno entre infinito, mientras los estadísticos de máxima dispersión muestral teórica posible tenderán a dos entre infinito,  y en cualquier caso ambos tipos de estadísticos revelarán una tendencia indiscutible a cero.

 Rubén García Pedraza, Madrid a 14 de noviembre del 2015.

https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería