Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 25 de mayo de 2013

El Segundo Método

La estadística y la probabilidad son dos disciplinas claramente diferenciadas, aunque estrechamente vinculadas, en los manuales de estadística son frecuentes las menciones a la teoría de la probabilidad, y viceversa, en los libros de probabilidad menciones a la estadística, pero, sin embargo, a pesar de estar muy ligadas, la matemática tradicional hace una clara distinción entre qué es estadística y qué es probabilidad, en la medida que la una estudia la posibilidad de un evento o  suceso, y la estadística hace estimaciones descriptivas, normalmente sobre poblacionales, o de ser inferencial, contraste de hipótesis.
Es difícil decir cuál de ellas, probabilidad o estadística, fue primero, aunque, hay una visión ampliamente asumida de que el nombre estadística viene dado porque a partir de los primeros Estados se extiende el empleo de técnicas para la elaboración censos y recuentos demográficos y poblacionales. La probabilidad como teoría quizás no sea mucho más anterior o posterior, y posiblemente el principio histórico de la estadística y la probabilidad sea simultánea, y presumiblemente, aunque de forma intuitiva o sin saber que utilizaban técnicas estadísticas o de probabilidad, la prehistoria de estas técnicas se remonte a periodos anteriores. Si bien, en el ámbito académico se suele mencionar que la estadística en tanto que disciplina científica de carácter académico, universitario, es muy reciente, de principios del siglo XX.
Si la media aritmética lo que hace es la redistribución igualitaria de, dada la suma de una serie de elementos por factor, el sumatorio se divide después entre el total de los factores, para determinar cuántos elementos corresponden a cada factor por igual, es evidente que, ya  se le diera ese  u otro nombre, este tipo de operaciones presumiblemente sea tan antigua como la propia matemática.
La teoría de Probabilidad Imposible, tal como su nombre refleja, parte de una reflexión en torno a la teoría de la probabilidad. El nombre de la Probabilidad Imposible hace mención a la existencia de sucesos que teniendo probabilidad empírica cero, luego en teoría a priori deberían ser imposibles, en tanto que tienen probabilidad empírica cero porque no hay constancia manifiesta al menos en el registro de observaciones que haya sucedido, o habiendo sucesos pertenecientes a posibles universos infinitos en donde, teóricamente, en el infinito la probabilidad teórica de sujeto u opción, 1/N, es una tendencia con límite en cero, en cualquier caso, ya sea porque un suceso es teórica o empíricamente imposible, en términos de probabilidad, no implica que no tenga porque suceder, un suceso teórica o empíricamente imposible, dentro de un margen de coherencia lógica, puede ser inevitable.
Debido a la complejidad en la definición de lo posible o lo imposible, la teoría de Probabilidad Imposible evolucionará hacia una perspectiva compleja de la ciencia, muy en la línea de los actuales modelos en boga no lineales o modelos caóticos. En Probabilidad Imposible la definición de lo posible o imposible se debe a una combinación aleatoria de factores capaz de producir patrones de comportamiento estables, siempre de manera estocástica, dentro de una lógica dialéctica en donde la realidad es una contingencia producto de accidentes, luego lo realmente sustancial o esencial de la realidad en tanto que fenómeno cognoscible, es ser una entidad compleja en permanente evolución o cambio, lo cual en esencia nos lleva a la filosofía presocrática, más en concreto a Heráclito, para quien todo fluye, todo es movimiento, y en cierto sentido una visión nietzscheana o nihilista de la ciencia, aunque partiendo, para llegar a este punto,  del contraste de hipótesis, lo que en Probabilidad Imposible se llama la crítica racional de las ideas, en tanto en cuanto, lo que conocemos, el fenómeno, no es el ente en sí, en la medida que nunca conocemos la realidad misma, sólo percepciones, siendo la contradicción entre realidad empírica y teórica fuente de errores para la ciencia generadas por la propia limitación humana, ante la infinitud de cualidades singulares de la verdadera realidad real, siendo la ausencia de fiabilidad absoluta un desafío a los ideales de ciencia y humanidad.
A partir de la primera intuición de Probabilidad Imposible, en el año 2001, se inicia una teoría, que además, entre sus primeros propósitos tendrá la intención de crear un modelo inferencial alternativo al contraste de hipótesis tradicional, sustentado sobre el falsacionismo de Popper. En líneas generales, las investigaciones que dieron lugar a estos primeros planteamientos en el año 2001, son los que posteriormente se plasmaron por primera vez en la versión impresa de Introducción a la Probabilidad Imposible, 2011, y más recientemente en este mismo año 2013, en las versiones digitales, ebook, de Introducción a la Probabilidad Imposible, en donde únicamente se han hecho algunas modificaciones en relación a la concepción filosófica de la ciencia, pero manteniendo perennes e inalterables las formulaciones iniciales.
A fin de dar cuerpo teórico a estas intuiciones preliminares, se empieza a desarrollar un nuevo modelo metodológico, desde el cual poder hacer efectivo el estudio de la realidad desde una cosmovisión compleja, que entienda las relaciones dialécticas entre lo posible y lo imposible, haciendo una síntesis filosófica entre racionalismo crítico, positivismo, y materialismo dialéctico, en el cual se puede entrever a lo largo de la obra claras influencias vitalistas y nihilistas, en la medida que toda presunción racional de falsedad, derivado de la versión popperiana del racionalismo crítico, implica que, a priori, toda hipótesis, aunque se demuestre suficientemente racional, es una suficiencia provisional, luego, ya desde el principio, por apriorismo, toda aceptación de verdad se hace aceptando desde el principio la presunción de falsedad, luego ya de entrada se parte de que absolutamente nada puede ser absolutamente verdad, toda verdad que aceptamos provisionalmente verdad lo hacemos desde el convencimiento y el apriorismo, que, llegado el momento de la verdad, cuando el margen de error aceptado en la razón crítica de la política científica se manifieste, esa misma hipótesis o idea ahora aceptada verdadera, será falsa.
El racionalismo crítico, en su evolución contemporánea, el falsacionismo, fundado en el eclecticismo de la duda racional y el escepticismo empírico, llevado al extremo, en Probabilidad Imposible, conduce inevitablemente a una actitud de nihilismo relativo, en tanto que se asume la presunción a priori de que toda hipótesis o idea, y absolutamente toda hipótesis o idea, luego toda teoría, incluso ella misma, y absolutamente toda teoría, aunque de forma provisional las aceptemos racionales, es absolutamente falsa. Que algo sea racional no implica que sea absolutamente verdadero, sólo significa que es una explicación suficiente por ahora, y mientras no se demuestre o manifieste lo contrario, pero más allá de la función temporal de suficiencia, a largo plazo será posiblemente falso. El racionalismo crítico abre la puerta a un cierto nihilismo relativo, en tanto que, ni siquiera es absoluto. De forma inmediata, en el momento que las hipótesis son suficientemente racionales, siempre y cuando su margen de error sea igual o inferior al margen de error de la razón crítica, o siempre y cuando su margen de fiabilidad sea igual o superior al margen de fiabilidad, se acepta las hipótesis y sus teorías, si bien, se presupone, que dentro del marco de error que se aceptan, posiblemente sean falsas.
A fin de desarrollar la teoría de Probabilidad Imposible lo primero que desde esta teoría se hace es fusionar estadística y probabilidad, creando así un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística.
Dentro de esta nueva teoría habrá que diferenciar entre dos tipos de métodos, el método destinado al propio desarrollo analítico formal, investigación pura, de la estadística y la probabilidad, que será el silogismo, aplicado al estudio de la tendencia, motivo por el cual se llamará el silogismo de la tendencia, y aquellos otros métodos de estadística y probabilidad que aplicados a las ciencias sintéticas o empíricas, investigación aplicada, permitirán el desarrollo de las demás ciencias, sean naturales o sociales.
Los métodos estadísticos sintéticos o empíricos, para la investigación aplicada a las ciencias naturales o sociales, tienen su origen y fundación en los propios silogismos que, dentro de la investigación pura, se hagan para el desarrollo de la estadística y la probabilidad aplicada a las demás ciencias.
Mientras la investigación pura en estadística de la probabilidad o probabilidad estadística tiene por fin el análisis de las relaciones formales o lógicas entre estadística y probabilidad, la investigación aplicada tiene por fin la aplicación de la estadística y la probabilidad a las demás ciencias sintéticas o empíricas, sean naturales o sociales.
En el momento que en el ámbito de la investigación pura se empieza a estudiar la posibilidad de fusión, en base a sus relaciones entre sí, de estadística y probabilidad, dentro de este nuevo campo de estudio, estadística de la probabilidad o probabilidad estadística, si para la matemática tradicional la estadística se dedica al estudio de la tendencia central o dispersión de las puntuaciones directas obtenidas de las poblaciones o muestras, en caso de modelos de contraste de hipótesis, proceder a la inferencia estadística, mientras la probabilidad se dedica al estudio de la frecuencia de una serie de opciones, esta síntesis llevará a la creación de nuevos conceptos, universos de sujetos donde se estudian sujetos de predicados cuya cualidad se mide en forma de puntuación directa, y universos de opciones limitadas donde se estudian sus frecuencias, en donde ya sean universos de sujetos o de opciones, donde lo que se estudia es la puntuación directa o frecuencia, se puede aplicar el mismo método sintético o empírico, estudiando la probabilidad empírica y probabilidad teórica, siendo estos conceptos la base sobre la cual se establece el Segundo Método, el cual empezará a desarrollarse a partir del 16 de octubre del 2002, si bien, se ha mantenido inédito hasta la primera publicación de Introducción a la Probabilidad Imposible en 2011, y actualmente en las versiones ebook digitales.
Si el silogismo de la tendencia lo que permite es el análisis de las relaciones lógico formales entre estadística y probabilidad, mediante la aplicación del silogismo al estudio de la tendencia, empezarán a emerger nuevos conceptos que aplicados a las demás ciencias darán lugar a nuevos métodos sintéticos o empíricos para el estudio de las ciencias naturales o sociales. Uno de estos métodos para el estudio de las ciencias sintéticas es el Segundo Método, el cual parte del tratamiento de todo tipo de datos, sean de sujetos u opciones, puntuaciones directas o frecuencias, para el estudio de las relaciones entre las probabilidades empíricas y la probabilidad teórica.
De esta forma el método de Probabilidad Imposible en el análisis lógico de la estadística y la probabilidad, es el silogismo de la tendencia, de forma que toda la fusión de la estadística y la probabilidad en forma de estadística de la probabilidad o probabilidad estadística, se hará mediante la aplicación de silogismos, de los cuales empezarán a surgir métodos sintéticos o empíricos, uno de ellos el Segundo Método.
El motivo por el cual se estima que el silogismo es la principal herramienta del análisis lógico formal se debe a la propia dialéctica, en la cual, desde Hegel, el silogismo engloba los tres estadios, categorías, o niveles de concreción del objeto, en la medida que engloba: lo universal, lo particular, y lo singular; de lo que depende, la universalización en la ciencia, en la medida que desarrolla modelos teóricos universales que respondan a la concreción particular de cada hecho singular.
De esta forma, es partir del análisis formal, mediante silogismos aplicados a la tendencia, donde surgirán los métodos sintéticos o empíricos para la investigación aplicada a las ciencias naturales y sociales.
Mientras el silogismo aplicado a la tendencia estadística, el silogismo de la tendencia, es el método de análisis formal de la estadística de la probabilidad o probabilidad estadística, el Segundo Método es un método de estadística de la probabilidad o probabilidad estadística para el análisis sintético o empírico de las ciencias naturales o sociales.
El origen del Segundo Método, en tanto que método de análisis sintético o empírico de la estadística de la probabilidad o probabilidad estadística aplicado a las ciencias naturales o sociales, se encuentra en las conclusiones lógicas a las que se llega mediante el análisis formal de la estadística de la probabilidad o probabilidad estadística mediante la concatenación de silogismos aplicados a la tendencia.
La razón por la cual se alude a que el Segundo Método es uno de los métodos sintéticos o empíricos de Probabilidad Imposible, mientras el silogismo de la tendencia es el método analítico formal, es porque, mientras a nivel analítico formal el silogismo de la tendencia es el único método de investigación pura en estadística de la probabilidad o probabilidad estadística, la razón por la que se dice que el Segundo Método es un método sintético o empírico, es porque es uno pero no es el único, en la medida que, es uno de los métodos sintético obtenidos, mediante silogismos, al igual que otros métodos sintéticos igualmente obtenidos mediante la misma vía.
Mientras método analítico formal sólo hay uno, el silogismo de la tendencia, los métodos sintético o empíricos, todos ellos producto del análisis formal, son diversos, siendo el Segundo Método uno de ellos.
De hecho, la forma en que se llego a la conclusión que el silogismo de la tendencia es el método analítico formal, investigación pura, de Probabilidad Imposible, fue a consecuencia del análisis posterior de los documentos escritos sobre esta teoría, años después, estando todavía inédita, llegando a la conclusión que en todos los documentos se repite la misma estructura formal: a partir de una serie de premisas lógicas sobre conceptos y categorías matemáticas, el establecimiento de una conclusión lógica, en donde si los conceptos y categorías matemáticas estaban bien definidas, y la relación entre las premisas era correcta, la conclusión lógica era formalmente verdadera, derivándose de este método todos los conceptos matemáticos que forman hoy en día Probabilidad Imposible.
Mientras la definición del método formal, el silogismo de la tendencia, es posterior, los primeros métodos sintéticos o empíricos fueron el Impacto del Defecto y el Segundo Método, añadiéndose posteriormente la Distribución Efectiva y el estudio de ranking, todos ellos explicados en Introducción a la Probabilidad Imposible.
La diferencia entre Impacto del Defecto, Distribución Efectiva y estudios de ranking, frente Segundo Método, es que mientras el Impacto del Defecto estudia la magnitud de la gravedad de un defecto o daño en un proceso o sistema, o la Distribución Efectiva estudia el nivel de eficacia o eficiencia de un proceso o sistema, o el estudio en ranking realiza una crítica racional sobre unos niveles de ranking, ya se ordenen en sentido ascendente o descendente, el Segundo Método estudia las relaciones entre probabilidades empíricas y teórica, tanto a nivel intramedicional, ya sea en estadística descriptiva o inferencial, o a nivel intermedicional.
El motivo por el cual el Segundo Método recibió este nombre se debe a dos factores, en primer lugar para diferenciarlo de la estadística tradicional que es el primer método de referencia para todo análisis estadístico, y en segundo lugar porque el Segundo Método fue el segundo método cronológicamente en la elaboración de Probabilidad Imposible, el primer método dentro de esta teoría fue el Impacto del Defecto en la misma madrugada del 11 de septiembre del 2001, desarrollándose el Segundo Método un año después, el 16 de octubre del 2002.
La forma en que dentro de Introducción a la Probabilidad Imposible evoluciona el Segundo Método es hacia convertirse en un Segundo Método para todo tipo de estudios, tanto para estadística descriptiva, reformulando conceptos tradicionales de tendencia central, especialmente redefiniendo la media aritmética en tanto que azar teórico, entre otras funciones de inversión de N, 1/N,  y de dispersión, definiendo a la Desviación Media o Desviación Típica en tanto que estadísticos de azar empírico.
Y a partir de estas definiciones, mediante la aplicación de silogismos, formando nuevos conceptos como Máxima Desviación Media Teórica Posible o Máxima Desviación Típica Teórica Posible, diferenciando entre modelos normales y modelos omega sujetos a subconjuntos de ideales dentro de N, y avanzando hacia nuevos modelos contraste de hipótesis, para la crítica racional de las ideas.

Rubén García Pedraza, a  Madrid 25 de mayo del 2013.
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

 
 

sábado, 18 de mayo de 2013

Introducción a la Probabilidad Imposible (Edición 2015), en amazon

La nueva edición 2015 de Introducción a la ProbabilidadImposible, estadística de la probabilidad o probabilidad estadística, se encuentra ya disponible al público para su adquisición inmediata, tanto en versión Kindle de amazon, y la versión impresa de createspace.

Desde últimas  horas de ayer ya  se podía adquirir la nueva edición 2015 para ebook a través de kindle, y desde primeras horas de hoy la versión de createspace, la marca de amazon para la edición impresa de libros físicos,  pudiéndose encontrar tanto en amazon.com como en amazon Europa, y amazon.es, ambas versiones, ebook e impresa, y  además en el createspace store la versión impresa. Y por supuesto ya se han añadido los enlaces oportunos al blog de la Librería Matemática en donde siempre se pueden encontrar las últimas actualizaciones de la obra.


En el caso de la obra impresa, para los lectores europeos, señalar que todavía no está disponible en amazon Europa, puede tardar unos días, se informa porque en caso de adquirir la obra inmediatamente en lugar de ser enviada desde Europa, el país de envío quizás sea Estados Unidos, lo que aumente el precio del cargo. En cinco días laborables aproximadamente ya estará disponible en amazon Europa la versión impresa.


La importancia de la Edición 2015 reside en que va a ser la última ampliación de la obra, quedando este formato ya establecido definitivamente. En próximas ocasiones, en lugar de hacer nuevas ediciones se van a publicar periodicamente estudios monográficos sobre aplicaciones concretas de la teoría, de modo que quien estaba esperando la edición definitiva esta es la oportunidad, la obra que se presenta en amazon y en createspace bajo el nombre de Introducción a la Probabilidad Imposible (Edición 2015) va a ser desde ahora la única que se distribuya desde los canales oficiales del blog de Probabilidad Imposible, sus redes sociales, y páginas amigas.

El motivo por el cual se deja clara constancia en el título de que es la Edición 2015, es para que se pueda diferenciar de cualquier otro ejemplar de segunda mano de versiones antiguas ya no disponibles, que todavía pueden seguir apareciendo en amazon.

La principal y definitiva novedad de la Edición 2015 es la incorporación de valoraciones sobre el tratamiento de probabilidades estadística calculadas sobre puntuaciones directas de signo negativo, que en tal caso, para el cálculo, se tomarán sobre su valor absoluto, para la estimación de sumatorios y cocientes para la obtención de probabilidades. Un detalle extremadamente importante dado que será determinante para la futura interpretación de las soluciones de los resultados, y de las comparaciones pertinentes.

Para aquellos lectores que estén interesados sobre el modo en que se resuelven estas cuestiones directamente deberán leer a los siguientes puntos, desde el 3.3.12.1. al 3.3.12.11. de la obra, así como hay menciones a lo largo de la nueva edición sobre este modo de valorar el tratamiento estadístico de probabilidades estimadas sobre puntuaciones directas obtenidas de la medición sobre escalas que comprenden enteros desde valores negativos a positivos.
Como ya muchos lectores saben, la obra se encuentra organizada por apartados y párrafos numerados, lo que facilita la lectura y la localización de  párrafos.
Para los lectores que ya han leído la obra se estudiará el modo que puedan tener acceso a las nuevas ampliaciones, en cualquier caso la Edición 2015, como siempre, se ha mantenido fiel al manuscrito original, únicamente modificándose aspectos formales no sustanciales, además de la incorporación de los nuevos casos mencionados para tratamiento en forma de probabilidad de valores enteros negativos.
La Edición 2015 que aquí se presenta de este modo es una contribución más a la expansión de una teoría que desde el  2011 que sale por primera vez a la luz en edición física, ha ido creciendo en lectores, seguidores, y fans, que entienden la necesaria reformulación de muchos conceptos tradicionales desde parámetros más innovadores, y la necesidad de nuevos aires en el campo de la epistemología y las matemáticas, que ofrezcan nuevas perspectivas de futuro a un campo del que, más allá del academicismo, es trascendental para el desarrollo de todas las ciencias, no sólo desde la contemplación de la matemática como una ciencia pura, también desde el punto de vista aplicado, cuyas aportaciones al resto de ciencia pueden ser determinantes para la modelación final de la sociedad en que vivimos.
En este sentido, Introducción a la Probabilidad Imposible, además de ser una obra eminentemente dedicado a la epistemología de la probabilidad estadística o estadística de la probabilidad, aporta importantes reflexiones sobre el futuro tecnológico de la humanidad a expensas de  los nuevos desarrollos matemáticos, especialmente hay que hacer hincapié en el apartado 23 en donde se aborda la íntima relación entre replicación matemática y replicación robótica en la creación de nuevos modelos de Inteligencia Artificial, en donde la probabilidad y la estadística tienen mucho que decir, al igual que otros campos de la matemática.
También en el terreno de la reflexión sobre las relaciones matemáticas-ciencia, el apartado 24 ofrece una detallada reflexión sobre la importancia de la creación de modelos matemáticos en todo tipo de ciencias, no sólo naturales, también sociales, y finalmente el apartado 25, una aportación más al debate sobre un aspecto fundamental en la lógica del descubrimiento científico, la definición de hipótesis empírica.
En este blog se está haciendo una labor de divulgación y difusión de la teoría de Probabilidad Imposible para el estudio del campo de la estadística de la probabilidad o probabilidad estadísica, pero para un conocimiento más profundo, más allá del simplemente divulgativo que se pueda hacer desde las redes sociales sobre un esquema teórico, la lectura de Introducción a la Probabilidad Imposible es imprescindible, en la medida que ofrece un discurso ordenado y coherente sobre el sentido de la probabilidad en la ciencia contemporánea, un discurso que en su forma más abstracta no se puede encontrar en las redes sociales, a pesar de los avances de la tecnología.
La razón discursiva precisa de contextos explicativos que sobrepasan la inmediatez de la página web o el blog, y quizás sea algo en lo que la humanidad, a pesar de las profundas transformaciones cibernéticas, no cambie. La imperiosa necesidad de la construcción de la teoría sobre hipótesis, y proposiciones, cuya cadena lógica de relaciones formales y silogismos precise de un discurso claro y diferenciado, donde los conceptos aparezcan nítidos y no haya lugar a dudas más allá de las necesarias, la razón crítica de la lógica discursiva .
Por este motivo animo a todos mis lectores habituales del blog, seguidores en redes sociales, y fans que se han ido sumando a lo largo de los últimos años, para una mayor comprensión de esta teoría que están viendo nacer,  a una lectura profunda y reflexiva de  Introducción a la Probabilidad Imposible (Edición 2015), al mismo tiempo sigan las últimas novedades del blog de Probabilidad Imposible donde se informan de las últimas novedades, al mismo tiempo que se introduce a sus aspectos más relevantes, , y sobre todo para la divulgación y difusión de una teoría joven, que lentamente crece y se expande.
A todos vosotros, muchas gracias, y que disfrutéis de la lectura. 
Rubén García Pedraza, Madrid 21 de enero del 2015
 


https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=A2neVNzgO8n-UreOgJgJ&ved=0CCIQ6AEwAA#v=onepage&q=probabilidad%20imposible&f=false
Probabilidad Imposible  en Google Libros

 


http://probabilidadimposible.wordpress.com/
La Librería Matemática

                                         





 

 

 

domingo, 12 de mayo de 2013

La tendencia estadística

La tendencia estadística de un sujeto u opción singular, o la tendencia estadística de una muestra en particular, o del universo en general, es el comportamiento o forma de ser de ese sujeto u opción, muestra o universo. En términos de probabilidad, la tendencia individual de un sujeto u opción queda manifestada, de forma inmediata, en la probabilidad empírica y  a nivel muestral en la serie de estadísticos muestrales, y la tendencia del universo dependiendo si la inferencia estadística, de acuerdo a la razón crítica, determina si una tendencia es suficientemente racional para aplicarse de forma provisional al universo del que forma parte la muestra, transformándose la hipótesis empírica en hipótesis racional, una hipótesis simultáneamente universal y provisional, en cuanto el margen de error aceptado por la política científica en la razón crítica no se muestre inevitable.
De esta forma, y en líneas generales, la tendencia es el  comportamiento o forma de ser, lo que de forma más analítica, y a efectos didácticos, para entender Introducción a la Probabilidad Imposible, se podría decir que el comportamiento es en sí mismo el hecho empírico, lo que se observa, del cual posteriormente la mensuración da lugar a una medición, puntuación directa o frecuencia, que dividida entre el sumatorio de puntuaciones directas o frecuencias da lugar a la probabilidad empírica de sujeto u opción, la tendencia individual de sujeto u opción que pasa a engrosar los estadísticos de tendencia individual sobre los que se estimarán los estadísticos muestrales.
El comportamiento observado en tanto que objeto de medición dará lugar a las mediciones sobre las que se calcula la tendencia estadística, siendo observaciones del comportamiento y estimaciones cuantitativas sobre las que se deduce la forma de ser del sujeto u opción, la muestra o el universo,  en la medida que la forma de ser se demuestra en el comportamiento observado, sobre el cual se establecen los estadísticos de la tendencia, sea a nivel individual o muestral, y dentro de la muestral, la tendencia central o de dispersión.
De esta forma habría que distinguir tres niveles de tendencia en Introducción a la Probabilidad Imposible, la tendencia individual, en función de los estadísticos individuales, la tendencia muestral, en función de los estadísticos muestrales, dentro de los que se englobarían los de dispersión o tendencia central, y la tendencia universal, aquella que se infiere a partir de la inferencia estadística.
Mientras la tendencia individual y la tendencia muestral son objeto de la estadística descriptiva, la tendencia del universo es aquella que tiene por objeto la definición de la forma de ser del universo según los comportamientos observados en la muestra, luego la definición de aquel universo particular al que pertenece la muestra es la tendencia universal, función de la estadística inferencial, para la aceptación o refutación de las hipótesis empíricas, según la tendencia observada en los niveles individuales o muestrales sea suficientemente racional en función de una razón crítica, la probabilidad crítica que decida la política científica.
En estudios de error una tendencia individual o muestral igual o inferior a una razón crítica en tanto que margen de error, o en estudios de fiabilidad, una tendencia individual o muestral superior a una razón crítica en tanto que margen de fiabilidad, será una tendencia suficientemente racional para  ser establecida de forma universal y provisional para todo el universo del que se extrajo la muestra, y mientras el margen de error aceptado no se demuestre, momento en el cual se refutaría la validez o significación universal de la hipótesis, o demostrándose en todo caso que su validez o significación era sólo provisional.
La tendencia de esta forma se puede definir en tanto que comportamiento o forma de ser, en la medida que la tendencia lo que viene a definir son patrones de comportamiento estadísticos, que de forma descriptiva los patrones de comportamiento o de tendencia se clasifican en, dentro de la estadística tradicional, de tendencia central o de dispersión, y en Introducción a la Probabilidad Imposible, estadísticos individuales o muestrales.
La estadística tradicional diferencia entre estadísticos de tendencia central o de dispersión, en la medida que parte de la tesis que son funciones unidimensionales, es decir, los estadísticos de tendencia central bajo ningún concepto puede desarrollar funciones de estadístico de dispersión, y viceversa, los estadísticos de dispersión no pueden ejercer funciones de estadísticos de tendencia central.
En este sentido la estadística tradicional hace clasificaciones hieráticas y fijas, en donde los estadísticos de tendencia central serían principalmente: la media aritmética, la moda  la mediana; la media aritmética en tanto que promedio del sumatorio de las puntuaciones directas por su frecuencia, la moda sería aquella puntuación directa u ocurrencia que tuviera mayor frecuencia, y la mediana aquel estadístico que dividiría al 50% la distribución estadística.
Los estadísticos de dispersión para la estadística tradicional sería la Desviación Media, Varianza, y la Desviación Típica, que se calcularían a partir de la puntuación diferencial igual a la diferencia de puntuación directa menos media aritmética. La Desviación Media sería igual al promedio del sumatorio del valor absoluto de cada puntuación diferencial por su frecuencia, la Varianza lo mismo pero elevando al cuadrado las puntuaciones diferenciales, y la Desviación Típica la raíz cuadrada de la Varianza.
De hecho la clasificación hierática de la estadística tradicional o la probabilidad tradicional, parte de una concepción fija e inmutable de la estadística en sí misma o la probabilidad en sí misma, en donde la estadística tiene por función el análisis de datos y la probabilidad el estudio de la probabilidad de la ocurrencia de algo, una diferenciación que en la teoría de Probabilidad Imposible se supera hacia un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística, a partir del Segundo Método, sobre las relaciones entre probabilidad empírica y teórica, así como en otro tipo de metodologías de Probabilidad Imposible, los estudios de ranking, el Impacto del Defecto y la Distribución Efectiva.
En Introducción a la Probabilidad Imposible, lo que se propone es un Segundo Método para el estudio de la estadística y la probabilidad, estudiando las relaciones entre probabilidad empírica y teórica, sintetizándose estadística y probabilidad, establediéndose estadísticos individuales o muestrales, empíricos o teóricos, en donde lo principal no es si un estadístico es de tendencia central o dispersión, porque lo realmente importante del estadístico es si es empírico o teórico. En Probabilidad Imposible lo más importante son las relaciones que se establecen entre la realidad empírica y la teórica para la crítica racional de las hipótesis, en esencia, la crítica racional de las ideas.
El motivo por el cual la verdadera diferencia no está en si un estadístico es de tendencia central o de dispersión, más bien es si es empírico o teórico, es porque en esencia el objeto fundamental del conocimiento es el contraste entre lo teórico y lo empírico, para el establecimiento del isomorfismo idea y realidad, la forma científica en que ha evolucionado el hilemorfismo aristotélico de materia y forma.
En síntesis, lo que la ciencia investiga es si nuestra idea de realidad y la realidad misma son idénticas, en la medida que a mayor identidad cuantitativa, dentro del menor margen de error, mayor margen de fiabilidad, en la razón crítica, entonces mayor probabilidad de que el conocimiento que disponemos sobre la realidad sea realmente verdadero, si bien, debido a la propia limitación humana, origen del error, nunca llegamos a tener un conocimiento absoluto sobre lo que sucede, motivo por el cual el conocimiento, a pesar que dispongamos de increíbles márgenes de error sobre periodos infinitos de cero, el error y la refutación siempre son posibles.
En este sentido el principio básico del racionalismo crítico se mantiene inalterable, en la medida que no podemos conocer de forma absoluta la realidad en sí misma, únicamente llegamos a un conocimiento parcial de la realidad, sólo conocemos fenómenos, y es en la diferencia entre fenómeno y la realidad en sí o noúmeno en donde establecemos el margen de error aceptable por la razón crítica para decidir si una tendencia es suficientemente racional, en función de si la tendencia sea inferior al margen de error o superior al margen de fiabilidad, lo cual es esencia la crítica racional de las ideas.
La pervivencia del racionalismo crítico en la crítica racional de las ideas en Introducción a la Probabilidad Imposible es bien visible en todos los modelos de contraste de hipótesis que se postulan, los cuales a su vez dependen de las definiciones iniciales de sujeto u opción, tipos de universo, probabilidad empírica y probabilidad teórica.
La distinción entre estadísticos individuales o muestrales, empíricos o teóricos se debe a que en el Segundo Método de Probabilidad Imposible para este nuevo campo de estudio, estadística de la probabilidad o probabilidad estadística, carece de lógica una visión hierática de la división entre tendencia central y dispersión cuando los mismos estadísticos de tendencia central son estadísticos de dispersión simultáneamente, dentro de la visión dialéctica hegeliana en función de la cual los opuestos son idénticos, lógicamente, centralidad y dispersión son idénticos.
El motivo por el cual los estadísticos de tendencia central y dispersión son idénticos en Probabilidad Imposible se puede explicar desde diferentes perspectivas, desde la perspectiva filosófica, en la identidad de los opuestos. Algo que en Introducción a la Probabilidad Imposible se deja claro desde el principio es que esta teoría, Probabilidad Imposible, parte de la síntesis entre racionalismo crítico, positivismo y materialismo dialéctico, el cual a su vez parte de una visión dialéctica de la realidad que tiene su origen en Hegel, y posteriormente Marx y Engels aplicarán a la realidad material, aplicando las categorías dialécticas que Hegel a la materia.
Desde la perspectiva estrictamente matemática tendencia central y dispersión son idénticas porque desarrollan exactamente las mismas funciones.
Lo que para la estadística tradicional es media aritmética, un estadístico de tendencia central, en el Segundo Método de Probabilidad Imposible se transforma en inversión de N, 1/N, el cual ejerce al mismo tiempo diferentes funciones, la inversión de N es al mismo tiempo, para todo tipo de universos, media aritmética de las probabilidades empíricas, probabilidad teórica, y en universos de sujetos, probabilidad de dispersión teórica y probabilidad de error de representatividad muestral, es decir, conforme N aumenta hay menor probabilidad de eror en la representación muestral del universo, y la dispersión empírica disminuye en estudios normales, en la medida que en estudios normales conforme N aumenta la probabilidad empírica de los sujetos u opciones tenderá a cero en la misma medida que tenderá a cero la inversión de N según aumente N.
Lo que para la estadística tradicional es la moda, aquella opción con mayor frecuencia, en el Segundo Método se transforma en la máxima, “p(xi+)”, la máxima probabilidad empírica o probabilidad empírica máxima, y la principal cualidad de la máxima es que es el sujeto u opción que tiene el  mayor Nivel de Sesgo de la muestra, luego es el sujeto u opción que es más próximo a Máxima Probabilidad Empírica Posible, la probabilidad uno, luego la más próxima a Máximo Sesgo Teórico Posible, “( 1 – 1/N)”.
Si en la estadística tradicional la Desviación Media, Varianza o Desviación Típica se define por estadísticos de dispersión, en realidad en Introducción a la Probabilidad Imposible son la tendencia central de la dispersión empírica, en la medida que lo único que hacen es calcular el valor promedio, central, de la dispersión individual de la muestra, en la medida que la Desviación Media es el promedio, o valor central, del valor absoluto de los Niveles de Sesgo, la Varianza es el promedio, o valor central, de los Niveles de Sesgo al cuadrado, y la Desviación Típica la raíz cuadrada de la Varianza.
Además, en el Segundo Método de Probabilidad Imposible, al mismo tiempo que la inversión de N, para todo tipo de universo es probabilidad teórica, es decir, la inversión de N es el azar teórico de que algo suceda en igualdad de oportunidades, la Desviación Media o Típica es el azar empírico, es decir, la Desviación Media o Típica lo que miden es la distribución empírica del sesgo por azar en la muestra, lo cual se demuestra en el momento que la Desviación Media es igual al Sesgo Total, suma del valor absoluto de todos los Niveles de Sesgo, por inversión de N, azar teórico, en síntesis, la Desviación Media es azar teórico, inversión de N, 1/N, por Sesgo Total, el sesgo empírico , la Desviación Media no es otra cosa que el producto del sesgo por el azar o el azar por el sesgo, la estimación cuantitativa de la distribución del sesgo por azar, la Desviación Media o Típica son en definitiva el azar empírico.
La diferencia entre azar empírico y azar teórico reside en que si hacemos una serie de lanzamientos de una moneda al aire teóricamente la distribución de caras y cruces debería ser la misma, empíricamente depende del azar empírico, lo que realmente suceda.
Teóricamente la probabilidad de ser hombre o mujer en una sociedad es la misma, empíricamente, la propia distribución aleatoria, natural de la sociedad, la proporción de mujeres en la sociedad suele ser superior a la de hombres, dependiendo del propio azar empírico de la naturaleza, que de forma natural y aleatoria favorece más a la distribución de mujeres que la de hombres.
Teóricamente la probabilidad que la masa de cualquier planeta en una galaxia debería ser la misma, en la práctica, los planetas en función de su distancia al sol de la galaxia tienen dimensiones diferentes, dependiendo de la propia distribución aleatoria de la materia en el espacio.
El azar empírico lo que demuestra es la profunda naturaleza estocástica de lo que sucede, la realidad. Mientras la distribución teórica es aquella que debería darse sin más motivo que la igualdad de oportunidades, en la naturaleza se producen sesgos aleatoriamente que dependen del propio azar empírico de lo que sucede, que de forma totalmente aleatoria y al azar sigue patrones de comportamiento y de tendencia diferentes a los teóricos, revelando una forma de ser totalmente aleatoria y estocástica, sólo predecible dentro de un posible margen de error.
El estudio de la distribución del azar, empírico y teórico, y sus diferencias, es lo que después permitirá a la ciencia la crítica racional de las ideas, las hipótesis, ya sean hipótesis explicativas, para comprender la distribución de la realidad en forma de hipótesis empíricas que puedan transformarse en racionales, universales y provisionales, o para la crítica racional de hipótesis tecnológicas y puesta a prueba de nuevas tecnologías, que faciliten un mayor crecimiento acelerado en el progreso de la ciencia y la tecnología, en esencia, el progreso hacia los ideales dentro de los ciclos de revoluciones científicas y tecnológicas hacia la revolución permanente de la ciencia.
El concepto de tendencia estadística es imprescindible para cualquier teoría de estadística y la probabilidad, que además, en la propia investigación pura sobre estadística de la probabilidad o probabilidad estadística, es a partir de los silogismos sobre la tendencia la forma en que se desarrolla la propia teoría en sí misma.
Si bien de cara a la investigación aplicada a las ciencias sintéticas el Segundo Método, los estudios de ranking, el Impacto del Defecto y la Distribución Efectiva son métodos de Probabilidad Imposible aplicados a otras ciencias sintéticas de los que deducirse proposiciones con significado empírico, la forma o método en que a su vez estos métodos han sido desarrollados en sí mismos, el método interno a la propia teoría, Probabilidad Imposible, ha sido el silogismo de la tendencia. A continuación una serie de ejemplos, de cómo a partir de una serie de silogismo se deduce la Máxima Desviación Media Teórica Posible.
En el momento que se establece que la probabilidad empírica es igual a puntuación directa o frecuencia entre sumatorio de puntuaciones directas o frecuencias
Probabilidad empírica = p(xi) = xi : Σxi

Y la probabilidad teórica es inversión de N, 1/N, la probabilidad hipotética en igualdad de oportunidades,  y el sesgo, es decir, el grado de comportamiento diferencial al esperado por azar, es igual a la diferencia entre el comportamiento real y el teórico, entonces, conclusión lógica del silogismo, el Nivel de Sesgo de un sujeto u opción es igual a la diferencia de la probabilidad empírica menos teórica

Nivel de Sesgo = p(xi) – 1/N

Y si toda probabilidad es una dimensión que oscila entre mínimo cero y máximo uno, entonces lógicamente la Máxima Probabilidad Empírica Posible sólo puede ser cuando la probabilidad empírica es igual a uno

Máxima Probabilidad Empírica Posible = 1

Y lógicamente la Mínima Probabilidad Empírica Posible sólo puede ser cuando la probabilidad empírica es igual a cero

Mínima Probabilidad Empírica Posible = 0

Y si la Máxima Probabilidad Empírica Posible es uno, y el Nivel de Sesgo es la diferencia entre lo empírico y lo teórico, entonces el Máximo Nivel de Sesgo Teórico sólo puede ser igual a uno menos inversión de N

Máximo Sesgo Teórico Posible= 1 – 1/N

Luego lógicamente aquel sujeto u opción que tenga la Mínima Probabilidad Empírica Posible tendrá el Máximo Sesgo Negativo Posible, cero menos inversión e N

Máximo Sesgo Negativo Posible = 0 – 1/N

Y si el Sesgo Total es la suma del valor absoluto de todos los Niveles de Sesgo, en tanto que los sesgos positivos compensan a todos los sesgos negativos y viceversa, motivo por el cual en el cálculo de la Desviación Media se suman todos los Niveles de Sesgo sin signo, Sesgo Total, para que no se anulen. Si se da el caso que un sujeto u opción tiene la Máxima Probabilidad Empírica Posible luego Máximo Sesgo Teórico Posible, entonces todo ese sesgo de ese único sujeto u opción debe compensar a todo el sesgo negativo de los demás sujetos u opciones, que si de N sólo un sujeto u opción es de sesgo positivo, todos los demás, N – 1, son de sesgo negativo, luego todo el sesgo negativo de esos sujetos u opciones debe ser igual a multiplicar “N – 1” por el valor absoluto de Máximo Sesgo Negativo Posible, 1/N, y dicho producto será igual al duplo de Máximo Sesgo Teórico Posible, luego la Máxima Desviación Media Teórica Posible será igual a al promedio del duplo de Máximo Sesgo Teórico Posible

Máxima Desviación Media Teórica Posible= [ ( 1 – 1/N ) · 2 ] : N

Y de igual forma, mediante aplicar el silogismo a la tendencia estadística, el silogismo de la tendencia, deducir Máxima Varianza Teórica Posible, Máxima Desviación Típica Teórica Posible, y todos los modelos de crítica racional, tanto para modelos de distribución normales, aquellos cuya dispersión oscila entre cero y máxima, y modelos omega, y dentro de los modelos de distribución normales según el objeto de estudio sea igualdad de oportunidades, sesgo positivo o sesgo negativo, casos todos explicados en Introducción a la Probabilidad Imposible.
La tendencia de esta forma es uno de los conceptos fundamentales de la probabilidad y la estadística, que tiene un lugar preponderante en Introducción a la Probabilidad Imposible, en la medida que es a partir del estudio de la tendencia, y la aplicación de silogismos, el silogismo de la tendencia, la forma en que se elabora y estructura toda una nueva teoría sobre un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística, tanto para la descripción y la inferencia de hipótesis.

Rubén García Pedraza, Madrid a 12 de mayo del 2013
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/