Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 6 de octubre de 2012

Síntesis de Probabilidad Imposible, en este Blog, hasta la fecha

 
La finalidad de este blog , desde su principio, hace ya más de un año, ha sido la de pretender dar a conocer los supuestos básicos de la teoría de Probabilidad Imposible, y difundir todos sus elementos teóricos, y ecuaciones que lo componen. En líneas generales cuando a partir de la primavera del 2001 empecé a trabajar en esta nueva teoría, el objetivo inmediato que debía tener Probabilidad Imposible era ser una teoría crítica al falsacionismo, en la medida que, en realidad, si bien muchas de las conclusiones a las que llega Probabilidad Imposible son completamente idénticas a la teoría de Karl Popper, en esencia, el objetivo último del contraste de hipótesis difiere significativamente entre ambas teorías.
 
Mientras en la teoría de Karl Popper el objeto de la prueba científica es refutar la hipótesis, y mientras la hipótesis no sea refutada se aceptada, siendo conscientes que el hecho que, de momento , no refutemos una hipótesis no implica que por ello sea verdadera, simplemente no es falsa, en cambio en Probabilidad Imposible el objeto de prueba científica , el contraste de hipótesis, es demostrar que una determinada hipótesis es verdadera asumiendo un determinado margen de error en que posiblemente sea falsa.
 
La principal diferencia entre el fasacionismo y Probabilidad Imposible, es que mientras para el falsacionismo la prueba científica nunca demuestra la verdad de nada y únicamente se limita a decir que por ahora no se demuestra que una proposición sea falsa, la Probabilidad Imposible pretende demostrar la verdad de todo aceptando un margen de error en el que posiblemente todo sea falso.
 
En el fondo de la cuestión sobre la prueba científica se debate la cuestión dialéctica sobre lo verdadero y lo falso, para el fasacionismo el hecho que algo no se demuestre falso tampoco significa que sea verdadero, es decir, algo puede ser por ahora no demostradamente falso y al mismo tiempo no necesariamente ser verdadero, en realidad el falsacionismo nos lleva al ideal kantiano del noúmeno, sólo conocemos fenómenos que muy posiblemente sean sólo percepciones falsas de la realidad, mientras que la verdad en sí misma, en el ser en sí, el noúmeno, la verdad absoluta de todo, nunca lo llegamos a conocer, porque la razón humana está limitada.
 
En Probabilidad Imposible el trasfondo kantiano también es inmediatamente perceptible: toda proposición científica de la ciencia que supere la prueba de la razón crítica se acepta verdadera, dentro de un posible margen de error, en el cual , en un tiempo suficiente o infinito, en tanto que error posible, el error es inevitable, luego, mientras a corto plazo la ciencia se dedica a enunciar proposiciones hipotéticas posiblemente verdaderas, en tanto que también son posiblemente falsas antes o después, mientras dispongamos de tiempo suficiente o infinito, todo enunciado hipotético deductivo de la ciencia, terminará siendo falso.
 
El Probabilidad Imposible toda hipótesis aceptada por la ciencia, pasa de ser una simple hipótesis empírica a ser una verdadera hipótesis racional, si bien a la larga cabe la posibilidad que todas las supuestas hipótesis racionales sean falsas.
El punto en común en que el falsacionismo y la Probabilidad Imposible, es que si bien el falsacionismo únicamente se limita a decir que una hipótesis provisionalmente no es falsa, la Probabilidad Imposible se limita a decir que una hipótesis empírica es sólo provisionalmente racional, verdadera, luego toda la ciencia en sí misma se construye sobre proposiciones provisionales.
 
La construcción teórica de la provisionalidad de la ciencia lleva a una contracción dentro de la ciencia. Mientras el racionalismo crítico desde Kant tiene por objeto transformar todo acto o hipótesis en una máxima universal, es decir, que la ciencia se componga solamente de hipótesis universales, la contradicción inherente al racionalismo crítico, es que ¿ cómo es posible que una hipótesis provisional sea universal? Lo provisional no es universal, porque lo universal es universal a todo espacio y todo tiempo, luego la ciencia si es provisional no puede ser universal . En Probabilidad Imposible la forma en que se salva esta contradicción es puntualizando que toda hipótesis empírica aceptada racionalmente será universal hasta que el error posible se manifieste inevitable, momento a partir del cual , lógicamente, la hipótesis dejará de ser naturalmente universal .
 
En Probabilidad Imposible de esta forma la validez universal de la hipótesis racional y provisional está sujeta a que suceda el error inevitable ya previsto en el margen de error posible aceptado por la política científica al aceptar racional la hipótesis empírica.
 
El error racional de la hipótesis empírica aceptada racionalmente es múltiple. En realidad no se trata sólo que la política científica acepte un error posible, en realidad acepta varios errores posibles, el primer error posible que acepta la política científica es el error de selección muestral, y el segundo error que acepta la política científica es el margen de error de la misma razón crítica.
 
El margen de error de la selección muestral depende del tipo de universo al que pertenezca la muestra, pero en esencia, sea cual sea ese universo posible, el posible error científico de la selección muestral se debe a que, siempre que se escoge una muestra se determina un margen de error inverso a la magnitud de la muestra.
 
A mayor magnitud de la muestra entonces la muestra es más representativa, luego el error de representación muestral es menor, de la misma forma que si la magnitud de la muestra es menor entonces aumenta el error de representatividad muestral. La probabilidad de error de representatividad muestral es inversamente proporcional a la muestra, y es importante ser consciente de este margen de error en tanto que ya de por sí la aceptación de una determinada selección muestral implica la aceptación de una determinada tasa de error asociada a la representatividad de la muestra.
 
La probabilidad de error de representatividad muestral es inversa a la magnitud de la muestra, y esto lo que significa es que: la aceptación racional de una hipótesis empírica sobre una alta probabilidad de representatividad muestral, implica que, esa hipótesis aceptada racional sobre una muestra poco representativa es más fácilmente refutable en el momento que la hipótesis sea transferida al resto del universo, que si esa misma hipótesis fuera aceptada sobre una muestra mucho más representativa.
 
La forma de calcular la probabilidad de representatividad muestral depende del tipo de universo, y en esencia, sólo hay dos tipos de universos posibles : universos limitados a opciones, y universos de sujetos u opciones; los universos limitados a opciones es cuando la magnitud de N opciones no tiende a infinito al ser las opciones aquellas alternativas posibles que material o socialmente ofrece un modelo posible, por ejemplo si lanzamos una moneda al aire sólo hay dos opciones, cara o cruz, una partícula sólo se puede comportar como onda o partícula, el género sexual de todo ser humano sólo puede ser hombre o mujer, salvo error hermafrodita, si lanzamos un dado de seis caras al aire sólo hay seis opciones, estos modelos son modelos limitados solamente tres opciones materialmente. Además cabe que un modelo este limitado a una serie de opciones convenidas socialmente, en función de las opciones éticas, morales, políticas, sociales, que interactúen en cada fenómeno social, y ante las cuales siempre halla posibilidad de elegir una opción social frente a otras. La principal cualidad de los estudios de opciones limitadas es que en estos estudios la probabilidad empírica será igual a la frecuencia individual de cada opción entre la frecuencia total.
 
Los universos de sujetos u opciones son aquellos universos en donde cada sujeto de ese universo puede ser tratado como si fuera una opción y viceversa, diferenciándose de los universos de opciones limitadas mientras que los universos de opciones limitadas las opciones se limitan a unas opciones materiales o sociales, en cambio los universos de sujetos u opciones pueden tender a infinito o formar poblaciones. Por ejemplo la población de un determinado lugar es la población de sujetos u opciones de ese lugar, dado un estudio en donde dada una muestra de estrellas queremos estudiar la radiación de energía de cada estrella, la radiación de energía de cada estrella es la puntuación directa de cada estrella, y en este sentido cada estrella sería un sujeto u opción del estudio. En los universos de sujetos u opciones, ya sea tendente a infinito el universo o una población particular, la probabilidad empírica será igual a la puntuación directa o frecuencia del sujeto u opción individual entre el total de todas las puntuaciones directas o frecuencias.
Con independencia del tipo de universo, de opciones limitadas o de sujetos u opciones infinitos, siempre, y absolutamente siempre, la forma de representar la probabilidad empírica es la misma, probabilidad empírica igual al cociente de la puntuación directa o frecuencia individual entre la total, lo que en la estadística ordinaria o tradicional se denominaría, en estudio de opciones, frecuencia relativa, una frecuencia relativa que aquí se trabajará en tanto que probabilidad estadística.
 
Probabilidad empírica = p(xi) = xi : Σxi
 
De esta forma la media aritmética se transforma en inversión de N, 1/N, que es precisamente la probabilidad teórica de ocurrencia en igualdad de oportunidades por azar.
 
Probabilidad teórica = media aritmética = Σp(xi) : N = ( xi : Σxi ) : N = 1/N
 
 
De esta forma, la inversión de N, 1/N, que de momento únicamente cumple dos funciones esenciales, media y probabilidad teórica, frente a la probabilidad empírica que es la frecuencia relativa, además la inversión de N adquiere una nueva función más, la inversión de N será la probabilidad de error de representatividad muestral en universo de sujetos u opciones.
 
Si una de las fuentes de error en Probabilidad Imposible es la probabilidad de error de representatividad muestral, y esta fuente de error dependerá del tipo de universo, precisamente los tipos de universo pueden ser : de opciones limitadas y de sujetos u opciones infinitos.
 
Mientras en los universos de opciones limitadas la muestra seleccionada es el total de la frecuencia, por ejemplo, si estudio si una moneda está trucada la muestra total será el total de cruces y caras obtenidas en el estudio, es decir muestra seleccionada igual a frecuencia total igual a frecuencia de todas las opciones, si en un estudio sobre si en una determinada población humana hay más mujeres que hombres la suma total de la frecuencia de hombres más la frecuencia de mujeres es la población utilizada en la muestra, entonces la probabilidad de error muestral será igual, en universos de opciones limitadas, a la inversión de la muestra, es decir, 1/Σxi. Cuanto menor sea la muestra de lanzamientos totales utilizados en la moneda mayor probabilidad de error de representatividad muestral, no es lo mismo hacer un estudio sobre cara o cruz en una moneda sobre un total de diez lanzamientos a sobre un total de mil lanzamientos de la moneda. No es igual la representación muestral sobre la tasa de mujeres y hombres en una población humana sobre una población de un pueblo que tenga mil habitantes a sobre una ciudad que tenga diez millones de habitantes. La probabilidad de error de representatividad muestral asociada al estudio de la muestra de opciones limitadas tenderá a descender conforme la frecuencia total aumente.
 
1/Σxi = Probabilidad de error de representatividad muestral en universos de opciones limitadas
 
En los universos de sujetos u opciones, ya sea tendente a infinito, o aquellos cuyo estudio es sobre las puntuaciones directas de cada individuo de la población, la muestra es igual al total de sujetos u opciones, y en tanto que todo sujeto es estudiado como si fuera una opción, luego cada puntuación directa es tratada como si fuera una frecuencia individual, siendo la probabilidad empírica igual a puntuación directa individual entre la suma total, siendo entonces el total de N sujetos u opciones la muestra de sujetos u opciones, lógicamente, conforme N tienda a incluir más sujetos u opciones la muestra N será más representativa del universo o población, y cuanto menor magnitud en N mayor error de representatividad muestral, luego en universos de sujetos u opciones la probabilidad de error de representación muestral es igual a la inversión de N , es decir, 1/N.
 
De esta manera llegamos a uno de los elementos que desde el otoño del 2002 han definido a la Probabilidad Imposible, que en universos de sujetos u opciones la inversión de N ha cumplido un papel multifuncional al ser mismo tiempo: probabilidad teórica, media aritmética, y especialmente desde la primavera del 2003, probabilidad de error de representatividad muestral. Es decir, la aceptación teórica de una determinada tasa de probabilidad al azar es al mismo tiempo la aceptación de un margen de representatividad de la muestra.
 
Esto evidentemente nos lleva a situaciones curiosas. Desde la primavera del 2002 a este nuevo enfoque de estudiar la estadística lo denominé Segundo Método, en la medida que llega a transformarse en una nueva reconceptualización de los conceptos clave de la estadística tradicional. Además dentro de la teoría de la Probabilidad Imposible cabe diferenciar entre el Segundo Método, que básicamente lo que hace es la crítica de la realidad desde el estudio de probabilidades, frente a otras formas de crítica mediante el Impacto del Defecto y la Distribución Efectiva, apartados 21 y 22 de la obra Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.
 
Lo que en el Primer Método, la estadística tradicional, se llama puntuación diferencial, puntuación directa de cada sujeto menos la media aritmética de todas las puntuaciones directas, en Probabilidad Imposible se transforma en Nivel de Sesgo en la medida que pone en relación diferencial la probabilidad empírica y la teórica, para cualquier tipo de universo, de opciones limitadas o de sujetos u opciones, dándose el caso además que la probabilidad teórica tiene un valor multifuncional ser al mismo tiempo : probabilidad teórica de ocurrencia al azar, media aritmética, y probabilidad de error de representatividad muestral en universos de sujetos u opciones infinitos.
 
Nivel de Sesgo = p(xi) – 1/N
 
Dentro de la Probabilidad Imposible los diferentes modelos de estudio se van a clasificar en función de diferentes variables, sobre todo en función del ideal o los ideales, y en función de la razón crítica.
 
En un primer momento habrá que definir si es un estudio normal o es un estudio omega , los estudios normales son aquellos en donde: o bien el ideal es la igualdad de oportunidades, o bien un sujeto u opción es el más ideal del cual se espera la mayor probabilidad posible, o lo idea es que todos por igual tiendan a cero; los estudios omega son aquellos en donde la magnitud de sujetos u opciones ideales en N es superior a uno e inferior a N , es decir, un modelo omega es aquel en donde hay una magnitud de ideales entre dos y N menos uno, en donde mientras todos sean ideales por igual tiendan a tener una probabilidad empírica alta por igual, mientras todos los demás sujetos u opciones no ideales tiendan a probabilidad empírica cero.
 
Dentro de los modelos normales de esta forma cabe clasificar diferentes objetos de estudio: que todos los sujetos u opciones tiendan a igualdad de oportunidades luego tiendan a sesgo cero, o de todos al menos halla un sujeto u opción ideal que tienda a probabilidad empírica uno y todos los demás, N menos uno, a probabilidad empírica a cero, o bien todos por igual tiendan a probabilidad cero. Los modelos en donde todos los sujetos u opciones deben tender a sesgo cero serán llamados modelos de igualdad de oportunidades o simplemente modelos de igualdad, y aquellos modelos en donde de toda N un sujeto u opción sea el ideal se llamarán modelos de sesgo positivo.
 
Los diferentes modelos de estudio son explicados en el libro Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística en el apartado diez, esta entrada del blog únicamente se hará una breve aproximación a lo que se expone en este apartado, para profundizar más sobre el tema se recomienda la lectura de este apartado, así como en general de toda la obra.
 
A fin de deteminar si en un determinado modelo de igualdad de oportunidades todos los sujetos u opciones tienden por igual a inversión de N, tendiendo a reducir su sesgo a cero, o en un estudio de sesgo positivo si la tendencia a probabilidad empírica uno de ese sujeto u opción ideal es suficiente para ser racional, o si para determinar si aquellos sujetos u opciones no ideales tienden suficientemente a probabilidad empírica cero y aumentar significativamente su sesgo negativo, lo que se hará será un estudio crítico del propio Nivel de Sesgo de cada probabilidad empírica, en función de los ideales establecidos, ya sean igualdad, sesgo positivo, o sesgo negativo .
 
La importancia de establecer valores críticos en estudio de sesgo negativo se debe a que, en un estudio de sesgo positivo, cuando se trata de aumenta la tendencia del sesgo positivo de un sujeto u opción ideal, se puede complementar mediante el estudio de si todos los demás sujetos u opciones no ideales tienden suficientemente a un sesgo negativo suficientemente bajo, y en modelos omega, por ejemplo, estudiar si todos los demás sujetos u opciones no ideales tienden a reducir suficientemente su probabilidad empírica.
 
Para realizar la crítica racional del Nivel de Sesgo, ya sea en estudios normales de igualdad que todos por igual tienden suficientemente a sesgo cero, o en estudios normales de sesgo positivo que el ideal tiende suficientemente al alza, o en estudios de sesgo negativo que el sesgo negativo aumenta, en primer lugar lo que se debe establecer es un parámetro en función del cual determinar la razón crítica, y ese parámetro en función del cual establecer el valor crítico sobre el cual después comparar los Niveles de Sesgo para, según su modelo y objeto, determinar si son suficientemente racionales para aceptar hipótesis empírica racionalmente, es el Máximo Sesgo Teórico Posible.
 
Si el Nivel de Sesgo es igual a la diferencia de probabilidad empírica menos teórica, entonces, si la Máxima Probabilidad Empírica Posible es igual a la unidad, necesariamente la unidad menos inversión de N debe ser igual al Máximo Sesgo Teórico Posible, y de la misma forma que la unidad es la Máxima Probabilidad Empírica Posible, lógicamente la Mínima Probabilidad Empírica Posible es cero, de forma que el Máximo Sesgo Negativo Posible es igual a cero menos inversión de N luego en términos absolutos la inversión de N adquiere una nueva función, Máximo Sesgo Negativo Posible
 
Máxima Probabilidad Empírica Posible = 1
 
Mínima Probabilidad Empírica Posible = 0
 
Máximo Sesgo Teórico Posible = 1 – 1/N
 
Máximo Sesgo Negativo Posible = 0 – 1/N = / 1/N/
 
Además de estos valores máximos, de momento en este blog si bien se ha explicado pero todavía no se ha explicado para que modelos de crítica sirve, si bien se explica a partir del apartado 10 del libro, habría que señalar, entre otros estadísticos máximos que todavía quedan por explicar, la Máxima Desviación Media Teórica Posible.
 
Si conocemos cual es el Máximo Sesgo Teórico Posible, que es cuando un sujeto u opción tiene Máxima Probabilidad Empírica Posible, luego los demás sujetos u opciones, N menos uno, tienen la Mínima Probabilidad Empírica Posible, y su sesgo en términos absolutos es igual a inversión de N, dado un modelo que cumpliera estas máximas garantías posibles la Máxima Desviación Media Teórica Posible es igual al promedio del duplo del Máximo Sesgo Teórico Posible. La Máxima Varianza Teórica Posible igual al promedio del cuadrado del Máximo Sesgo Teórico Posible más el producto de N menos uno por el cuadrado de inversión de N. Luego la Máxima Desviación Típica Teórica Posible igual a la raíz cuadrada de la Máxima Varianza Teórica Posible.
 
Máxima Desviación Media Teórica Posible = [ ( 1 – 1/N ) · 2 ] : N
 
                                                                             2            2  
Máxima Varianza Teórica Posible ={ ( 1 – 1/N )   + [ 1/N    · ( N – 1 ) ] } : N
 

Máxima Desviación Típica Teórica Posible =
                        2            2
√ { { ( 1 – 1/N )   + [ 1/N    · ( N – 1 ) ] } : N }
 
 
Una vez que conocemos los estadísticos máximos de Máximo Sesgo Teórico Posible y Máximo Sesgo Negativo Posible, entonces podemos establecer la crítica racional de cualquier Nivel de Sesgo en función del tipo de estudio, modelo y objeto de estudio, en tanto que en cuanto la razón crítica será siempre igual, producto del estadístico máximo del modelo por el cociente del porcentaje X , de error o fiabilidad, que acepte la política científica. Si el primer margen de error es la inversión de la muestra, sea muestra N en universos de sujetos u opciones infinitos, o frecuencia total, Σxi, en universos de opciones limitadas, el segundo margen de error que la política científica debe estar dispuesta a aceptar es el margen de error que establezca para determinar la razón crítica.
 
Ambos márgenes de error, tanto el de la selección muestral como el de la razón crítica, son márgenes de error en que la ciencia debe estar dispuesta a aceptar que todo lo que decida ser racional puede ser posiblemente, llegado el momento de la verdad , falso, luego toda construcción científica de la realidad es universalmente provisional, es sólo universal hasta que el error aceptado, en la aceptación de la muestra o la razón crítica, se muestre inevitable.
 
Todo y absolutamente todo lo posible, por imposible, en tanto que tendente a cero su probabilidad, que aparente, en tanto que sea posible, en un tiempo suficiente o infinito, es inevitable que suceda. Cualquier margen de error que creamos suficientemente racional para suponer una verdad universal, será universal mientras el error inevitable a ese margen de error posible no se manifieste, momento a partir del cual la hipótesis racional dejará de ser verdadera para ser irrevocablemente falsa. Nada , ni tan siquiera aquella verdad más íntima que creamos inexorablemente sólida, es eterna, todo y absolutamente todo está a merced del tiempo, ya sea porque dispongamos de tiempo suficiente o infinito, o más trágicamente, porque no dispongamos de tiempo, y el tiempo de existencia sea vea limitado dramáticamente.
 
La Probabilidad Imposible es una teoría de estadística de la probabilidad o probabilidad estadística porque su objeto de estudio en esencia es el estudio de la historia del azar, lo que sucede en el espacio tiempo, en el azar nada es predecible más allá del margen de error, en el que todas nuestras verdades eternas se demuestran como lo que son, simples teorías frente a la verdadera realidad, lo que realmente sucede, si bien de lo que sucede nunca conocemos todo lo que sucede, si acaso una parte, e incluso esa parte esta sujeta al error de representatividad muestral, y posiblemente, también sea falsa, si bien de momento todo se acepta provisionalmente verdadero, a la luz de la razón crítica, y mientras no se muestre lo contrario, el margen de error asociado a la razón crítica.
 
En estudios de error la razón crítica es igual al producto del máximo estadístico por el cociente derivado del porcentaje X de error , que la política esté dispuesta a aceptar, entre cien , mientras que en estudios de fiabilidad la razón crítica será igual al producto del máximo estadístico por el cociente derivado del porcentaje X de fiabilidad, que la política esté dispuesta a aceptar, entre cien, en cualquier caso en todo estudio de fiabilidad la política científica aceptar un margen de error igual a cien menos porcentaje de fiabilidad.
 
La probabilidad crítica, sea en estudios de error o fiabilidad siempre se representará de la misma forma, “p(xc)”.
 
En función de si es un estudio de error o fiabilidad, la política científica podrá determinar la Validez o la Significación del objeto de estudio.
 
Validez de Igualdad, en estudios normales de igualdad de oportunidades
 
p(xc) – / ( p(xi) – 1/N ) / = cero o positivo se acepta igualdad
 
p(xc) = ( 1 – 1/N ) · ( X : 100 )
 
X = porcentaje de error
 
Validez de Sesgo Positivo, cuando en un estudio normal sólo hay un ideal en N para determinar si ha llegado el sesgo positivo al ser verdaderamente ideal
 
( p(xi) – 1/N ) – p(xc) = cero o positivo se acepta sesgo positivo
 
p(xc) = ( 1 – 1/N ) · ( X : 100 )
 
X = porcentaje de fiabilidad
 
Validez de Sesgo Negativo, para determinar, en estudios normales o estudios omega, si el sesgo negativo de los sujetos u opciones no ideales aumenta suficientemente
 
( 1/N – p(xi) ) – p(xc) = cero o positivo se acepta sesgo negativo
 
p(xc) = 1/N · ( X : 100 )
 
X = porcentaje de fiabilidad
 
Y dentro de la equifinalidad de Probabilidad Imposible, lo que se puede estudiar en estudios de error en Validez se puede estudiar en estudios de fiabilidad en Significación, y viceversa, en realidad elaboré las pruebas de Significación para demostrar que a una misma conclusión se puede llegar por diferentes vías, en tanto que expresan exactamente lo mismo de diferente forma
 
Significación de Igualdad, en estudios normales de igualdad de oportunidades
 
[ ( 1 – 1/N ) – / ( p(xi) – 1/N ) / ] – p(xc)= cero o positivo se acepta igualdad
 
p(xc) = ( 1 – 1/N ) · ( X : 100 )
 
X = porcentaje de fiabilidad
 
Significación de Sesgo Positivo, en estudios normales donde sólo hay un ideal y debe tender a máximo sesgo positivo
 
p(xc) – [ ( 1 – 1/N ) – ( p(xi) – 1/N ) ] = cero o positivo se acepta sesgo positivo
 
p(xc) = ( 1 – 1/N ) · ( X : 100 )
 
X = porcentaje de error
 
Significación de Sesgo Negativo, en estudios normales o estudios omega donde los no ideales deben tender a probabilidad cero
 
p(xc) – [ 1/N – (1/N – p(xi) ) ] –= cero o positivo se acepta sesgo positivo
 
p(xc) = 1/N · ( X : 100 )
 
X = porcentaje de error
 
Los modelos normales son normales porque la tendencia normal es que la distribución tienda a inversión de N, la curva normal es que en torno a la media aritmética se distribuyan la mayoría de sucesos, mientras los demás se ordenen en los laterales, además un situación muy normal es que dada una serie de opciones y debamos elegir una lo más normal es que elijamos la más ideal, de forma que, cuando nos referimos a estudios normales nos referimos a estudios en donde o bien la tendencia normal estadística de la muestra es a la distribución en torno a inversión de N , o bien es un modelo que dadas unas opciones hay una que es la más ideal de todas. Si vamos a hacer un cuestionario en donde por cada ítem hay varias opciones y sólo una correcta estamos ante un estudio normal de sesgo positivo, en donde lo ideal es que la opción positiva tienda a probabilidad empírica uno mientras todas las demás a cero. Además otro modelo de estudio normal es que, dadas una serie de opciones todas negativas ninguna suceda, o dado el estudio de una cualidad en un universo o población de sujetos u opciones si esta cualidad es negativa lo ideal es que no se dé en la muestra. Por estudios normales entonces se entenderán aquellos cuyo objeto de estudio es la igualdad de oportunidades, o el sesgo positivo de un único sujeto u opción, o bien cuando lo ideal es la tendencia a cero de toda la muestra, si bien bajo esta situación se dan situaciones diversas, que se señalan en el apartado 10 de Introducción a la Probabilidad Imposible .
 
Junto a estos modelos normales se puede dar además una situación diferente, si bien en los estudios más normales de sesgo positivo lo más normal es que de toda N halla un único sujeto u opción ideal , se pueden dar situaciones en donde dada una N halla más de un sujeto u opción ideal y todos igual de ideales en igualdad de oportunidades. Si dada una muestra N hay diferentes ideales pero en distinta gradación, entonces más que estudiarlo por Segundo Método debería estudiarse por Distribución Efectiva, en tanto que la Distribución Efectiva lo que hace es ordenar una serie de sujetos u opciones en una gradación de idealidad, de menor a mayor importancia ideal .
 
Los modelos omega serán aquellos que dada una N habrá una magnitud de, sujetos u opciones, ideales entre al menos dos ideales y N menos uno ideales, en donde para que un estudio se considere omega debe como mínimo existir dos sujetos u opciones ideales diferentes, y como máximo N menos uno sujetos u opciones ideales, o dicho de otra forma , que exista una magnitud de sujetos u opciones no ideales entre N menos dos sujetos u opciones no ideales a solo un único sujeto u opción no ideal, excluyéndose de este abanico lógicamente a las muestras de dos opciones limitadas. Evidentemente una muestra de dos opciones limitadas sólo puede estar sujeta a un estudio normal, o ambas son igual de ideales, ser hombre o mujer, o halla una que sea más ideal que la otra.
 
 
En los estudios omega la crítica racional se puede enfocar de dos formas, o bien mediante la crítica normal de los no ideales, por ejemplo la aplicación de la Validez de Sesgo Negativo a los sujetos u opciones no ideales, o la Significación de Sesgo Negativo a los sujetos u opciones no ideales, o de otra forma, la crítica racional de los sujetos u opciones que forman la muestra omega, Ω, estando formada la muestra omega por todos aquellos sujetos u opciones ideales de la muestra en el estudio omega.
 
De esta forma, para hacer la crítica racional en los estudios omega igualmente habrá que determinar a priori los estadísticos ideales de tendencia, por cuya producto por el margen de error o fiabilidad, posteriormente se calculará la razón crítica, siendo la razón crítica siempre una probabilidad crítica .
 
Una diferencia entre los modelos omega a los modelos normales a la hora de establecer los estadísticos sobre los que determinar la razón crítica, es que mientras en estudios normales se puede determinar siempre cual es el valor máximo, en términos omega más que estadísticos de máxima tendencia lo que habrán son estadísticos ideales, por ejemplo, dada una muestra omega, Ω, de sujetos u opciones igualmente de ideales, la probabilidad empírica ideal que debería corresponder a cada ideal sería igual a la inversión de omega.
 
Ω = submuestra formada por todos los sujetos u opciones ideales dentro de N
 
1/Ω = probabilidad ideal para todo sujeto ideal de la submuestra Ω dentro de N
 
Una vez que conocemos cual es la probabilidad ideal omega para todo omega, estando formado omega por todos los sujetos u opciones ideales dentro de N, siendo el numero de sujetos u opciones ideales superior a uno e inferior a N , y siendo sujetos u opciones ideales porque lo ideal es que tengan una probabilidad empírica cuanta más alta mejor, todos los sujetos u opciones ideales por igual,entonces ya podemos establecer la Validez de Omega, en donde, todo sujeto u opción ideal omega igual o superior a una probabilidad crítica se aceptará suficientemente ideal.
 
Validez Omega
 
p(xi) – p(xc) = cero o positivo se acepta suficientemente ideal
 
p(xc) = 1/Ω · ( X : 100 )
 
X = porcentaje de fiabilidad
 
Así como se podría establecer un Promedio de Validez Ideal, promedio de la suma de los resultados obtenidos en todos los sujetos u opciones de omega, para saber si en términos promedio, el resultado del promedio es cero o positivo
 
Promedio de Validez Omega
 
Σ [ p(xi) – p(xc) ] : Ω = cero o positivo se acepta suficientemente ideal
 
p(xc) = 1/Ω · ( X : 100 )
 
X = porcentaje de fiabilidad
 
Y de la misma forma que podemos conocer cual es la probabilidad ideal omega, la inversión omega, 1/Ω, también se pueden determinar los estadísticos de dispersión ideales.
 
Desviación Media Ideal =
 
{ [ ( 1/Ω – 1/N ) · Ω ] + [ 1/N · ( N – Ω ) ] } : N
 
Varianza Ideal
 
                        2                    2
{ [ ( 1/Ω – 1/N )   · Ω ] + [ 1/N    · ( N – Ω ) ] } : N
 
 
Desviación Típica Ideal
                              2                   2
√ { { [ ( 1/Ω – 1/N )   · Ω ] + [ 1/N   · ( N – Ω ) ] } : N } 
 
 
Estos estadísticos de dispersión ideal, así como los de máxima tendencia explicados anteriormente serán de vital importancia en muchos modelos de crítica racional de la muestra, que además el lector puede seguir a través de la misma obra, que, de hecho, en las últimas semanas llegará a diferentes bibliotecas de la Universidad de la República de Uruguay y a la Universidad Politécnica del Valle de Mexico, así como está disponible para todas las personas interesadas a través de ebay.
 
Lo expuesto en este Blog de momento es sólo una mínima parte de lo que es la obra de Introducción a la Probabilidad Imposible, estadística de la Probabilidad o Probabilidad Estadística, de momento muchos de los contenidos de esta obra se van explicando de la forma más sencilla posible, si bien la teoría es bastante densa.
Lo que si hay que decir es que posiblemente todas estas aportaciones que de momento parecen novedosas suponen una forma al menos alternativa a la que normalmente se ha entendido la estadística tradicionalmente, y ya por este simple hecho la Probabilidad Imposible merece un mínimo de atención por cuanto, en esencia, supone una reconceptualización de la estadística tal como se ha entendido hasta ahora, en donde, supera los límites de la propia matemática para sintetizarse en una filosofía de la ciencia.
 
Rubén García Pedraza, Madrid a 6 de octubre del 2012
 
http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible



https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false