Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 25 de abril de 2015

Probabilidad cero o Probabilidad Imposible


La probabilidad es la magnitud racional del grado de posibilidad, racional por cuanto se mide a través de un cociente, una razón matemática, magnitud que oscilará entre cero y uno, la probabilidad uno en un fenómeno tradicionalmente significará certeza, y la probabilidad cero significará imposibilidad. Probabilidad cero es Probabilidad Imposible, y juega papel destacado en esta teoría, explicada profundamente en Introducción a la Probabilidad Imposible, estadística delaprobabilidad o probabilidad estadística, actualizada en enero del 2015.

La estadística tradicional define probabilidad igual a número de casos favorables entre todos los casos posibles, uno de los motivos que inducen a esta definición es porque, si bien el origen de la estadística se hunde en la antigüedad clásica, los primeros Estados ya hacían censos poblacionales, y aparecen las primeras técnicas estadísticas, aunque de momento no se le conoce por este nombre, se utiliza a mediados de la modernidad, la probabilidad sin embargo se inicia en la época moderna, desde tempranamente en la Edad Media, y normalmente eran estudios que encargaban nobles jugadores a expertos matemáticos para conocer la probabilidad de sus apuestas, motivo por el cual las primeras definiciones matemáticas giraban en torno a la posibilidad de los casos favorables, una definición clásica que ha perdurado a lo largo de la historia.

En Probabilidad Imposible frente a las definiciones tradicionales se ofrece una nueva redefinición adaptados a un nuevo planteamiento, el que surge de la fusión de la estadística y la probabilidad, la estadística de la probabilidad o probabilidad estadística, campo desde el que la teoría de Probabilidad Imposible opera una redefinición de los tradicionales conceptos de la estadística y la probabilidad.

El Segundo Método de Probabilidad Imposible, es un método complementario y alternativo a la estadística tradicional, que en Probabilidad Imposible se llama primer método, por cuanto ha sido el primero de la historia para el estudio de la estadística y la probabilidad, aunque por separado. En Probabilidad Imposible se sintetizan, produciéndose nuevas definiciones de probabilidad estadística, dentro de la cual habrá que diferenciar entre la probabilidad empírica, la probabilidad teórica, la probabilidad ideal, y probabilidad crítica.

De los tres modelos de probabilidad, empírica, teórica, ideal y crítica, la probabilidad cero sólo será posible en la probabilidad empírica y la crítica. En la medida que la probabilidad teórica es la inversión de N, el número de sujetos u opciones en un una muestra, la única posibilidad de que la probabilidad teórica fuera cero es que hubiera cero sujetos u opciones, de modo que entonces no habría muestra de estudio, por lo que no habría estudio que hacerse. Y en el caso de la probabilidad ideal, en los modelos omega, Ω, aquellos que de una muestra N el número de sujetos u opciones varía entre dos y N menos uno, luego la probabilidad ideal es la inversión de omega, 1/ Ω , sólo habría posibilidad de probabilidad ideal igual a cero si omega fuera cero, por lo que entonces no sería un modelo omega. Si de una N cualquiera de todos los sujetos u opciones ni tan siquiera hubiera un único sujeto u opción ideal, que al menos sería un modelo normal de sesgo positivo, siendo toda N igual de negativa o no ideal, luego el objeto de estudio fuera la reducción a cero de todas las puntuaciones directas o frecuencias, la muestra de ceros, entonces todas las probabilidades empíricas serían igual a cero. De este modo las únicas probabilidades estadísticas que admitirían probabilidad cero serían la probabilidad empírica y la probabilidad crítica.

La probabilidad crítica es el modo en que se representa la razón crítica aceptada por la política científica en estadística inferencial para el contraste de hipótesis. La lógica de la razón crítica es el producto del porcentaje de error o fiabilidad, entre cien, por la máxima tendencia empírica, en estudios de error donde la máxima tendencia empírica sea el máximo error posible, del máximo error sólo se aceptará el mínimo posible, luego la probabilidad crítica sería igual al producto del porcentaje de error, dispuestos a aceptar por la política científica, entre cien, multiplicado por la máxima tendencia empírica. Cualquier valor empírico igual o inferior a la probabilidad crítica se aceptaría. De modo que sólo habría posibilidad de probabilidad crítica igual a cero bajo el supuesto que la política científica no esté dispuesta a tolerar ni el más mínimo error en el modelo empírico, de modo que sobre un porcentaje de cero por cien de error multiplicado por la máxima tendencia empírica, la probabilidad crítica aceptada por la política científica sería igual a una razón crítica de cero errores en el modelo empírico, en el mismo instante que hiciera acto de aparición el más mínimo error en el modelo empírico sería automáticamente rechazado por la política científica, siempre y cuando la probabilidad crítica, en tanto que margen de error, sea cero.

Lo más normal es que en la crítica de cualquier modelo haya un margen de tolerancia al error, un margen de flexibilidad moral, en el que la política científica si esté dispuesta a aceptar aunque sea un mínimo margen de error, y lo más normal es que el porcentaje de error, aunque próximo a cero no sea igual a cero, aceptando un margen de error dentro del cual acepte los modelos empíricos.

De esta forma donde si es más probable encontrar probabilidad cero es en la probabilidad empírica,  el Segundo Método de Probabilidad Imposible la probabilidad empírica es igual al valor absoluto de puntuación directa de sujeto u opción entre el sumatorio de los valores absolutos de todas las puntuaciones directas o frecuencias, luego la única condición de posibilidad para que una probabilidad empírica sea cero es que la puntuación directa o frecuencia de sujeto u opción sea cero.

En un universo de opciones limitadas, una opción tendrá probabilidad empírica cero, si en la distribución de la frecuencia la opción nunca ocurre, careciendo de frecuencia en el modelo, y en un universo de sujetos u opciones infinitos un sujeto u opción tendría probabilidad empírica igual a cero si en la medición de la cualidad de estudio en la muestra, para  dicho sujeto u opción la puntuación directa en la escala de medida fuera igual a cero, de lo que se deduciría probabilidad empírica cero.

La probabilidad empírica cero de este modo significará o bien no ocurrencia de esa opción, en universos limitados, o bien cero manifestación de la cualidad de estudio en un sujeto u opción en universos infinitos, luego, salvo error de hecho, sería imposible la ocurrencia de esa opción, o sería imposible la manifestación de esa cualidad en ese sujeto u opción. La probabilidad empírica cero significaría en principio imposibilidad, aunque, como se explica en el apartado 7 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, recientemente actualizada en enero del 2015, bajo condiciones de un verdadero universo infinito, dentro de un margen de coherencia lógica, la propia existencia actual o potencial, hasta lo imposible puede ser inevitable.

Se dirá que, salvo error de hecho, es imposible la ocurrencia de un evento cuya probabilidad empírica sea cero, o salvo error de hecho es imposible la manifestación de una cualidad si tiene probabilidad empírica cero en un sujeto u opción, por cuanto, estas posibles predicciones a la luz de la probabilidad empírica serán previsiones dentro del de error de hecho que de hecho supone aceptar la realidad. Dadas las limitaciones fisiológicas humanas, en la medida que no podemos conocer los infinitos sucesos u ocurrencias posibles, sólo conocemos la realidad parcialmente, margen de error de hecho que supone la probabilidad de error de representatividad muestral igual a la inversión de la muestra, inversión de N, 1/N, en universos de sujetos u opciones infinitos, inversión de puntuaciones directas o frecuencias, 1/∑xi, en universos de opciones limitadas.

Salvo que se cometa un error de hecho, si en una muestra un sujeto u opción, de cualquier tipo de universo, limitado o infinito, demuestra probabilidad empírica cero, sería o bien imposible la ocurrencia de esa opción, o imposible la manifestación de la cualidad de estudio en ese sujeto u opción. Si estudiamos los síntomas de una enfermedad, y los síntomas se miden en una escala de magnitud, de la que depende la puntuación directa del sujeto u opción, y después de un tratamiento médico en un paciente los síntomas desaparecen, aceptando la eficacia del tratamiento sobre un margen de error crítico del cero por cien de error, en el momento que se constatase la eficacia de la cura sobre una fiabilidad del cien por cien, sería imposible que los síntomas volvieran a aparecer, salvo por el error que de hecho supone la aceptación parcial de la realidad, la muestra , que por muy representativas que sean, las muestras sólo serán idénticas al universo dentro del margen de error igual a la inversión de la muestra.

La probabilidad cero de este modo implica imposibilidad, salvo error de hecho, y la probabilidad empírica cero en Probabilidad Imposible se llamará Mínima Probabilidad Empírica Posible, por cuanto ninguna probabilidad empírica puede ser inferior a cero, en tanto que no hay probabilidades de signo negativo. Razón por la cual en estudios donde la escala de medida de las puntuaciones directas comprendan enteros de signo negativo, el sumatorio de las puntuaciones directas, y el cociente de las probabilidades empíricas, se hará sobre el valor absoluto de las puntuaciones directas.

Mínima Probabilidad Empírica Posible = 0

Para todos los sujetos u opciones que tengan probabilidad empírica cero, su Nivel de Sesgo será igual a menos inversión de N, en la medida que si el Nivel de Sesgo es igual a probabilidad empírica menos inversión de N, y la probabilidad empírica es cero, entonces cero menos inversión de N sería igual a menos inversión de N, que en términos absolutos será inversión de N, motivo por el cual se dirá que la inversión de N es el valor absoluto del Máximo Sesgo Negativo Posible, por cuanto si cero es la Mínima Probabilidad Empírica Posible, dado que no hay probabilidades empíricas de signo negativo, sólo positivo, razón por la que de haber puntuaciones directas de signo negativo se valorarán de forma absoluta, entonces ningún Nivel de Sesgo normal de sujeto u opción puede ser inferior a menos inversión de N, en términos absolutos inversión de N, siendo inversión de N el valor absoluto del Máximo Sesgo Negativo Posible.

Máximo Sesgo Negativo Posible = /(0 – 1/N)/ = / - 1/N/ = 1/N

Dentro de los estudios de sesgo, el estudio de la tendencia de sesgo negativo de los sujetos u opciones no ideales, o cuyo ideal sea la reducción de  la puntuación directa o frecuencia, serán estudios de sesgo negativo compatibles a los estudios de sesgo positivo en modelos normales o en modelos omega.

En modelos normales por cuanto del mismo modo que se verifica la tendencia a probabilidad uno de aquel único sujeto u opción ideal de toda N, los demás sujetos u opciones, N menos uno, deberán tender a probabilidad cero, para lo cual se pueden realizar diferentes técnicas de contraste de hipótesis. E igualmente, en modelos omega, del mismo modo que los sujetos u opciones ideales comprendidos en omega tienden a la probabilidad ideal, cuyo sesgo positivo será igual al Nivel de Sesgo Ideal, probabilidad ideal menos probabilidad teórica, proporcionalmente los ideales tienden a la probabilidad ideal, los demás sujetos u opciones tenderán a probabilidad cero incrementando así su sesgo negativo.

La combinación de pruebas de contraste de hipótesis de sesgo negativo, en modelos normales de sesgo positivo y en modelos omega, se debe a la propia bondad natural por la que todo el sesgo positivo compensa  a todo el sesgo negativo y viceversa, motivo por el cual para calcular el Sesgo Total, sumatorio de los valores absolutos de los Niveles de Sesgo, dicho sumatorio debe hacerse sobre los valores absolutos, porque si no los sesgos positivos y negativos se compensarían y la suma de los sesgos sería cero. La estadística tradicional para salvar el problema de los signos en las puntuaciones directas lo que hará será el promedio del cuadrado de las puntuaciones directas, y su raíz cuadrada la Desviación Típica. En Probabilidad Imposible, dado que el verdadero objeto de estudio finalmente siempre será la dispersión, lo lógico será preservar los diferenciales de la forma más objetiva, independientemente de que originalmente los Niveles de Sesgo sean de uno u otro signo, lo importante es conservar una estimación lo más fidedigna posible de los diferenciales, por lo que se recomienda la  Desviación Media para una estimación más objetiva de la dispersión muestral.

La combinación de estudios de sesgo negativo en modelos normales para estudiar, según aquel único sujeto u opción tiende a probabilidad empírica uno, el modo en que los demás sujetos u opciones, N menos uno, tienden a probabilidad empírica cero,  o en estudios omega, el estudio de la tendencia a probabilidad empírica cero de los sujetos u opciones no ideales, conforme los sujetos u opciones ideales dentro de omega tienden a probabilidad ideal, es una combinación de estudios de sesgo negativo en modelos normales o modelos omega posible, siempre y cuando o bien en modelos normales al menos un sujeto u opción sea ideal, o halla entre dos y N menos uno sujetos u opciones ideales en omega, porque si toda N es igual de ideal entonces no hay posibilidad de sesgo negativo, sería un modelo normal de igualdad de oportunidades, o de no haber en toda N ni un solo sujeto u opción ideal, siendo todos igualmente de no ideales, o cuyo ideal fuera cero puntuación directa o frecuencia, entonces sería un caso típico de muestra de ceros, en donde lo ideal sería que todas las puntuaciones directas o frecuencias fueran cero, todos los Niveles de Sesgo normales en términos absolutos fueran igual a inversión de N, luego la Desviación Media y la Desviación Típica fueran igual a inversión de N, dándose la paradoja que en muestras de ceros, aunque el promedio del sumatorio de las probabilidades empíricas igual a cero sería un promedio igual a cero, en la medida que independientemente de cual sea su valor promedio, en condiciones normales la inversión de N es media aritmética de las probabilidades empíricas, dichas condiciones normales sólo se exceptúan bajo condiciones de muestras de ceros, en donde independientemente que las probabilidades empíricas fuesen cero, la dispersión, individual y muestral sería en términos absolutos igual a inversión de N, dado que lo que realmente mide la dispersión en el Segundo Método de Probabilidad Imposible es la dispersión del comportamiento empírico en relación a la probabilidad teórica de ocurrencia al azar en igualdad de oportunidades, inversión de N, 1/N, dándose además la circunstancia añadida que normalmente la inversión de N, 1/N, es media aritmética de las probabilidades empíricas, salvo para la muestra de ceros.

La probabilidad cero, en cualquier tipo de universo, significará siempre Probabilidad Imposible, salvo error de hecho, ya bien que un modelo empírico sobre una razón crítica que sólo acepte cien por cien de fiabilidad, cero por cien de error, se verifique un modelo empírico igual a probabilidad crítica en tanto que margen de error igual cero, luego Probabilidad Imposible de error de mantenerse las condiciones que han permitido dicho nivel de fiabilidad. O en probabilidades empíricas igual a cero, Probabilidad Imposible de ocurrencia de la opción, o Probabilidad Imposible de manifestación de una cualidad en un sujeto cuya puntuación directa es igual a cero.

La probabilidad cero tanto en probabilidad crítica como probabilidad empírica significará Probabilidad Imposible, en un caso Probabilidad Imposible de error, en el otro, de ocurrencia o manifestación de una cualidad, ahora bien, como se ha mencionado, dicha Probabilidad Imposible será imposible dentro de la aceptación de un error de hecho, la probabilidad de error de representatividad de la muestra, igual a la inversión de la muestra, lo cual quiere decir, que en caso que ese margen de error, por mínimo que sea, se materializase, porque no se han recogido todas la ocurrencias posibles, las cuales pueden tender a infinito, por ejemplo los infinitos lanzamientos de una moneda,  o no se han recogido suficientes sujetos u opciones en la muestra, entonces, aquello que se creía Probabilidad Imposible puede ser sin embargo inevitable.

Lo imposible es inevitable dentro de un margen de coherencia lógica, tal como se explica en el apartado 7 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística. Ante la falta de conocimiento de lo que puede suceder un verdadero universo infinito en todas sus dimensiones, lo imposible en el infinito puede ser posible. Identidad dialéctica entre lo imposible y lo inevitable dentro del margen de error de lo que hasta ahora conocemos, tan sólo una mínima muestra de la historia universal.

Rubén García Pedraza, Madrid a 25 de abril del 2015



 

https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería
 
 
 

 

 

 

sábado, 11 de abril de 2015

Objeto de estudio


El objeto de un estudio responde a la pregunta qué se estudia, sobre lo que se centra la investigación, sintetizado en el título de la investigación, y en torno a lo cual gira el tema principal y los secundarios . Si estudiamos la composición química de la atmosfera, o estudiamos la tendencia de voto previa a unas elecciones, o estudiamos la estructura gramatical de una lengua, eso sobre lo que se centra el estudio es el objeto. En los modelos que utilicen el método hipotético deductivo en ciencias sintéticas el objeto se sintetizará en la hipótesis empírica.
 

La denominación de objeto de estudio al tema principal de la investigación en ningún momento significa que deba tratarse de un objeto físico, en cierto modo esta denominación de objeto de estudio responde a la reminiscencia de la dialéctica objeto y sujeto que aun permanece en la ciencia heredada de la dialéctica hegeliana, se entiende que el sujeto de la investigación es el científico, y el objeto es aquello que el científico estudia.

La clasificación de los objetos de estudio depende de los criterios que se utilicen, en Probabilidad Imposible los criterios que se utilizan para definir el objeto de estudio son los siguientes, en cierto modo herencia del racionalismo crítico, diferenciando entre los objetos de estudio de  las ciencias analíticas, y los posibles objetos de estudio de las ciencias sintéticas.
 

Los objetos de estudio de las ciencias analíticas son por lo general abstractos, centrados en estructuras lógico-matemáticas o lingüísticas, ya sea para su comprensión o desarrollo. Por ejemplo, estudios para el desarrollo de nuevos métodos y códigos matemáticos, o en humanidades el análisis de la estructura gramatical de una lengua, o aplicación de sus estructuras a lenguas ya existentes, o creación de nuevos lenguajes o adaptación de estructuras ya existentes a nuevos códigos de comunicación. Un ejemplo claro, aplicación de la lógica de los pictogramas a los nuevos códigos simbólicos de la nueva cultura escrita cibernética, por ejemplo uso de emoticonos en redes sociales.

Las ciencias analíticas, en cierto sentido legado del positivismo lógico, son aquellas que tienen por objeto el análisis formal del lenguaje, ya se trate de lenguajes lógico-matemáticos o lingüisticos, lenguas antiguas o modernas, e incluso, desde una perspectiva más surrealista o postmoderna, se podría incluir el análisis del arte. Dentro de las ciencias analíticas los modelos cualitativos utilizan  los métodos interpretativos, mientras los cuantitativos se centran en el desarrollo de la lógica y las matemáticas, desarrollos de los cuales pueden surgir métodos aplicables a las ciencias sintéticas, por ejemplo la estadística y la probabilidad.
 

Las ciencias sintéticas son aquellas cuyo objeto de estudio  no es formal, es empírico, si bien el esquema de interpretación de los hechos puede ser susceptible de interpretación hermenéutica dentro de los modelos cualitativistas, los modelos cuantitativistas se centrarán en el analisis lógico-matemático de los hechos empíricos, de lo que se deducirán proposiciones sintéticas, síntesis de elementos formales y materiales. Los modelos cuantitativistas a su vez se clasificarían en inductivistas y deductivistas, y dentro de estos últimos el objeto de estudio sería identificado en la hipótesis empírica que sería el verdadero objeto de contraste en las pruebas.
 

Probabilidad Imposible es una teoría dentro del campo de la estadística de la probabilidad o probabilidad estadística que estará centrada en el desarrollo analítico y aplicación sintética de la estadística y la probabilidad, y dentro de la aplicación sintética orientada tanto a estudios descriptivos e inferenciales para la crítica racional de la hipótesis empíricas.
 

El método analítico de Probabilidad Imposible para el desarrollo de proposiciones analíticas será el silogismo de la tendencia, cuando el objeto de estudio sea el desarrollo mismo de la estadística de la probabilidad o probabilidad estadística en tanto que disciplina o campo de la matemática. Una proposición analítica deducida del análisis lógico de la tendencia de inversión de N en relación a N, es que conforme N tienda a infinito la inversión de N tiende a cero.
 

A partir del desarrollo analítico de la estadística de la probabilidad o probabilidad estadística, en Probabilidad Imposible se crea una serie de métodos aplicables a las ciencias sintéticas,  la creación de métodos sintéticos donde se aplique el análisis lógico de la tendencia a hechos empíricos, el Segundo Método, estudios de ranking, el Impacto del Defecto, y la Distribución Efectiva, que tienen por objeto la descripción de la realidad, y a un nivel superior la inferencia, la validación de proposiciones sintéticas en forma de hipótesis empírica.
 

Cuando en ciencias sintéticas el objeto de estudio sea la descripción de una determinada realidad, natural o social, en los estudios descriptivos que no partan de ninguna hipótesis previa, el objeto de estudio será simplemente la identificación de la tendencia de las muestras extraídas del universo. Una vez extraída una tendencia, y en síntesis a las teorías y modelos previos del paradigma del científico o equipo científico, de la síntesis entre la descripción y las ideas previas se deduce la hipótesis empírica, que explique lo observado, hipótesis que para ser aceptada racionalmente, de modo universal y provisional, deberá superar las pruebas de contraste de la crítica racional.
 

Dado que Probabilidad Imposible parte de una metodología cuantitativa hipotético deductiva  el objeto de la investigación, el tema central del estudio, se sintetiza en la hipótesis empírica, para su validación lógico-matemática, la hipótesis deberá explicar la tendencia a someter a prueba para su aceptación, de este modo el verdadero objeto de estudio será la definición de la tendencia en la descripción,  la deducción de la hipótesis a partir de la descripción empírica y las premisas previas del paradigma, y finalmente comprobar que dicha hipótesis sea al menos provisionalmente correcta para todo el universo.
 

En cualquier caso, ya sea en la fase inicial de la investigación, la descripción, o la fase superior de la investigación, la inferencia, en cualquiera de sus fases el objeto de estudio será la tendencia, en la fase inicial para identificar la tendencia, en fase final para, a partir de la hipótesis producto de la síntesis entre lo observado y las ideas previas, poner a prueba la hipotética explicación de la tendencia.
 

De este modo, en estadística de la probabilidad o probabilidad estadística, en todas las ciencias sintéticas en donde se aplique el Segundo Método, el verdadero objeto de estudio siempre será el estudio de la tendencia, motivo por el cual, en Introducción a la Probabilidad Imposible, estadística de la probabilidado probabilidad estadística, especialmente desde el apartado 10, siempre que se haga mención al objeto de estudio se referirá a los distintos tipos de tendencia posible en una muestra y el universo, en modelos normales, estudios de igualdad o estudios de sesgo, sea sesgo positivo o sesgo negativo, y en modelos omega la tendencia a la probabilidad ideal por aquel conjunto definido de sujetos u opciones ideales integrados en el subconjunto omega dentro de N, que para ser verdaderamente un subconjunto de N será superior a uno e inferior N.
 

La tendencia a igualdad de oportunidades es cuando el ideal definido a priori por la política científica en la hipótesis empírica, es la tendencia de todas las probabilidades empíricas de todos los sujetos u opciones por igual a lo que sería un verdadero comportamiento en igualdad de oportunidades, definido en probabilidad estadística por inversión de N, 1/N, la probabilidad teórica de ocurrencia en igualdad de oportunidades por azar.
 

En la medida que en estudios de igualdad los ideal sería la tendencia de las probabilidades empíricas a inversión de N, la dispersión tendería a descender, a nivel individual por un descenso generalizado en los Niveles de Sesgo, a nivel muestral un descenso en la Desviación Media o Desviación Típica.
 

De modo que en los contrastes de hipótesis para la verificación de si realmente se ha producido el descenso en la dispersión los Niveles de Sesgo individuales deberían ser iguales o inferiores a un margen de error, Validez de Igualdad, y a Nivel Crítico Muestral de Igualdad, la Desviación Media o Típica igual o inferior a un margen de error.
 

En los estudios de sesgo positivo, aquellos donde para que se alcanzase el Máximo Sesgo Teórico Posible sería necesario que de toda N sólo hubiera un único sujeto u opción que acumulase todas las puntuaciones directas o frecuencias. Por ejemplo, que en un examen tipo test de respuesta múltiple, todos los alumnos respondiesen sin fallar a todas las cuestiones seleccionando siempre la respuesta correcta, de modo que si por cada item sólo se selecciona la opción correcta, la frecuencia de las opciones correctas sería igual a la frecuencia total, o en unas elecciones democráticas toda la población sin excepción alguna votase al mismo candidato, que en tal caso acumularía el total de votos de toda la población. En tales casos, si de toda N sólo hay un sujeto u opción que tiene puntuación directa o frecuencia distinta de cero, y todos los demás sujetos u opciones  puntuación directa o frecuencia igual a cero, se cumplirían las condiciones necesarias para que se diera la Máxima Desviación Media Teórica Posible o Máxima Desviación TípicaTeórica Posible, luego si en un modelo normal de sesgo positivo lo ideal es que de toda N sólo un sujeto u opción acumulara todo el sesgo positivo, la verificación de esta hipótesis se verificaría analizando la dispersión, ya sea porque el Nivel de Sesgo del sujeto u opción ideal es igual o superior a un margen de fiabilidad, en Validez de Sesgo Positivo, o la Desviación Media o Desviación Típica son iguales o superiores a un margen de fiabilidad, Nivel Muestral Crítico de Sesgo.
 

Los estudios de sesgo positivo se pueden compatibilizara a su vez con los estudios de sesgo negativo, dado que proporcionalmente aumente el sesgo positivo del aquel único sujeto u opción ideal, debería crecer el número de sujetos u opciones que tuvieran sesgo negativo, para lo cual dichos sujetos u opciones deberían disponer de un Nivel de Sesgo negativo igual o superior a un margen de fiabilidad, Validez de Sesgo Negativo.
 

En los modelos omega, que en una N superior a dos halla un subconjunto de sujetos u opciones definidos ideales por la política científica, por ejemplo, en una encuesta sobre hábitos de vida que por cada ítem halla más de una opción adecuada, o en unas elecciones que más de un candidato o delegado fuese ideal para una corriente política siendo deseable el aumento en votos por igual, o cualquier otra situación análoga, que en una N superior a dos halla al menos más de un sujeto u opción, aunque no toda N, que se quisiera aumentar por la probabilidad empírica, sería una situación que se ajusta a un modelo omega, en tales casos lo ideal sería la tendencia de los sujetos u opciones comprendidos en omega hacia la probabilidad ideal, inversión de omega, 1/Ω, lo cual se validaría en la Validez de Omega, que el Nivel de Sesgo relativo a omega, probabilidad empírica menos probabilidad ideal, sea igual o superior a un margen de fiabilidad, y a Nivel Muestral Omega
 
La Validez de Igualdad, la Validez de Sesgo Positivo y Sesgo Negativo, la Validez Omega, el Nivel Muestral Crítico de Igualdad, el Nivel Muestral Crítico de Sego, y el Nivel Muestral Omega, se explican en el apartado 11 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, recientemente actualizada en enero del 2015 incluyendo valoraciones sobre el tratamiento estadístico de puntuaciones directas de signo negativo. Además de los diferentes tipos de Validez y Niveles Muestrales, en el apartado 11 se incluyen diferentes modelos de crítica racional intramedicional, desde Proporciones Críticas, y Probabilidad de Iguadad o Sesgo Positivo o Negativo, y diferentes modelos para contratar la fiabilidad de la selección muestral. Y en el apartado 15 la adaptación del Sesgo Punto a la crítica racional de las puntuaciones típicas. En los apartados 16-20 los diferentes modelos de crítica racional intermedicional.
 

El verdadero objeto de estudio en la teoría de Probabilidad Imposible, en el estudio del campo de la estadística de la probabilidad o probabilidad estadística, es el estudio de la tendencia, siendo la tendencia la forma en que se manifiesta el comportamiento de los sujetos u opciones en la muestra, que se manifiesta en forma de dispersión. A menor dispersión mayor tendencia a igualdad de oportunidades, a mayor dispersión mayor sesgo, el sesgo puede ser positivo o negativo, si es el aumento del sesgo de los sujetos u opciones ideales es sesgo positivo, y lo ideal es aumentar el sesgo positivo, distinguiendo dos situaciones, o bien que dentro de N sólo hubiera un único sujeto u opción ideal, entonces el modelo tenderá a la máxima dispersión empírica en modelos normales conforme el sujeto u opción tienda al Máximo Sesgo Teórico Posible, o de toda N halla un grupo de sujetos u opciones ideales superior a uno pero inferior a N, que en tal caso deberían tender a la probabilidad ideal, luego dispersión ideal.
 

De este modo en el momento que se define que el objeto de estudio es la tendencia, y la tendencia se define en función de la dispersión, según disminuya o aumente en coherencia a los ideales de la política científica, finalmente el objeto de estudio es el estudio de la dispersión de las probabilidades estadísticas.

 
 

Rubén García Pedraza, Madrid a 11 de abril del  2015
 
https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería