Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 3 de enero de 2015

Indeterminación





Indeterminación se dice en ausencia de determinación, porque las relaciones entre los elementos no son estrictamente causales, o son causas asociadas a un nivel de probabilidad,  causas probables, o simplemente variables correlacionales, en cualquier caso se llama indeterminación a todo contexto estocástico donde lo que sucede está asociado a algún grado de posibilidad.

En el siglo XX el concepto de indeterminación ha estado ligado al concepto de incertidumbre, entre otras razones, gracias al principio de Heisenberg, al cual, dependiendo del tipo de manuales o libros de divulgación científica, se le denomina principio de incertidumbre o principio de indeterminación.

El motivo por el que indeterminación e incertidumbre se han encontrado ligadas en la física, y en general al positivismo, se debe a que si certeza es cuando la probabilidad asociada a un acontecimiento es igual a uno, “1”, lo que en Probabilidad Imposible se denomina Máxima Probabilidad Empírica Posible, dado que la probabilidad es un término matemático que sólo puede oscilar entre cero, “0”, y uno, “1”, cuando se dice que la probabilidad de ocurrencia de un suceso es igual a uno, “1”, entonces hay absoluta certeza de que ese suceso vaya a ocurrir, no habiendo la más mínima duda de que pueda no suceder. En tal caso la certeza de ocurrencia es absoluta, determinación.

Sólo si la probabilidad de un fenómeno es inferior a la unidad, “1”, aunque mayor a cero, “0”, se dice que se hay un nivel de incertidumbre proporcional a la diferencia de la unidad, “1” menos esa probabilidad.

En función del nivel de incertidumbre, diferencia de uno, “1”, menos la probabilidad de ocurrencia, se asignará un grado de incertidumbre al fenómeno, y sólo si el nivel de incertidumbre es cero habría certeza absoluta. Salvo este caso, la incertidumbre es proporcional a la diferencia de la unidad, “1”, menos la probabilidad de ocurrencia.

A esta probabilidad de ocurrencia en Probabilidad Imposible se la denomina probabilidad empírica, y es igual a la puntuación directa o frecuencia de sujeto u opción entre sumatorio de puntuaciones directas o frecuencia. La teoría de Probabilidad Imposible en la medida que está enfocada a la crítica racional de lo que sucede, la realidad, o ha sucedido, la historia, la forma en que se calcula el margen de incertidumbre es a través del margen de error, de modo que cualquier hipótesis aceptada sobre un margen de error, es una hipótesis con un nivel de incertidumbre idéntico al margen de error, el cual previamente ha establecido la política científica en función de su razón crítica, y matemáticamente en el contraste de hipótesis se representa en forma de probabilidad crítica.

Siempre que en un modelo de ciencias sintéticas, naturales o sociales, no hay absoluta certeza de lo que puede suceder, es un modelo de indeterminación estocástica cuyo estudio depende de la utilización de métodos estocásticos, la estadística y la probabilidad. En el caso de Probabilidad Imposible, a través del campo de estudio que supone la estadística de la probabilidad o probabilidad estadística, para lo cual se genera una serie de métodos de estudio alternativos, el Segundo Método, el Impacto del Defecto, la Distribución Efectiva, y los estudios de ranking, todos ellos explicados en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

Se dice que un modelo de causalidad está sujeto a índices de probabilidad, causas probables, cuando no hay evidencia suficiente empírica que demuestre una vinculación clara y directa entre causa y efecto, de modo que la relación de causa y efecto es sólo probable. El ejemplo que suele citarse en Introducción ala Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, es la probabilidad del arco-iris . Si bien sabemos que cuando un rayo de luz penetra una gota de agua produce el efecto óptico de la fragmentación del espectro de colores de la luz, el hecho que llueva durante el día, dándose las condiciones de posibilidad del arco-iris, no es motivo o causa suficiente que determine la aparición del arco-iris, lo único que podemos saber es, sobre número total de días de lluvia observados, cuantos días ha salido el arco-iris, luego la probabilidad empírica de aparición del arco-iris será igual a número de días de lluvia observados que ha salido el arco-iris, entre el número total de días de lluvia observados.

 El hecho que llueva no es causa determinante o automática de la aparición del arco-iris,  es un fenómeno que sólo se produce bajo determinadas condiciones de posibilidad estocásticas, las cuales se pueden medir estadísticamente en forma de probabilidad, en Probabilidad Imposible la probabilidad empírica.

De otro lado se pueden dar fenómenos en donde sin haber una relación unívoca o unidireccional de causa y efecto, se pueden dar correlaciones positivas o negativas, a causa de la interacción o retroalimentación mutua. En este tipo de escenarios, más que relaciones de causa y efecto,  en la medida que los fenómenos interactúan y se retroalimentan entre sí, lo más conveniente es hablar de correlación, la cual puede ser directa o inversa.

Se dice correlación directa cuando la relación entre una serie de elementos es directamente proporcional, en donde el factor de correlación es el valor cuantitativo en que se relacionan de forma positiva los elementos estudiados. Si en un modelo  se observa una serie de elementos un crecimiento, sea en igual o desigual medida o proporción, se dice que hay correlación positiva en la medida que todos incrementan su valor, ya sea un crecimiento igual o desigual, pero siempre que en todos se manifieste crecimiento, siendo el valor numérico de la correlación positiva el factor de correlación en el crecimiento entre las diferentes variables.

Correlación inversa es cuando hay una correlación inversamente proporcional, si disponemos de dos elementos, y en tanto que una crece el otro decrece, o varios elementos, en donde mientras un conjunto de elementos crece el otro decrece, se dice que hay correlación inversamente proporcional entre el valor que crece y el otro que decrece, o correlación inversamente correlacional entre el conjunto que crece y el otro conjunto que decrece.

Los motivos por los que dos o más variables pueden correlacionar son diversos, ya bien por simple simultaneidad coincidente, o bien porque dicha coincidencia se produce  por algún conjunto de factores subyacentes en un contexto común a los fenómenos, que los desconozcamos, y sea la causa probable de su aparición, o sea una correlación debida a la propia influencia mutua entre los factores que se estudian, interacción o retroalimentación. Además de que sea una correlación debida a un modelo de causalidad probable, en donde la ocurrencia de un suceso normalmente correlacione favorablemente con otro posterior del cual sea causa probable.

Una de las características de la ciencia contemporánea es  que frente los modelos deterministas clásicos de relaciones absolutas de causación, la ciencia contemporánea tiende más al estudio de los niveles de causación probable o correlación, ya sea en estudios sobre la relación entre dos variables, o multi-variable.

El hecho que se admita la existencia de ámbitos empíricos de indeterminación estocástica, ha sido utilizado por algunos paradigmas para oponerse frontalmente a cualquier visión nomotética y normativa, sin embargo es curioso que mientras los paradigmas idiográficos han hecho uso de este argumento para reivindicar una ciencia cualitativa, especialmente en ciencias sociales, en el campo de las ciencias naturales la aceptación de la incertidumbre y la indeterminación empírica, lejos de suponer el rechazo a la formulación de leyes naturales, ha sido un elemento sobre el cual se ha articulado una revisión conceptual de la estructura de la ciencia, que mantiene la necesidad de leyes sobre lenguaje matemático, tal como ya proponía Galileo, operando una redefinición en la función leyes científicas, adaptándose a los nuevos escenarios de incertidumbre y relatividad.

Mientras en ciencias sociales el impacto del relativismo y la incertidumbre, o las nuevas teorías de la complejidad y el caos, han llevado a nuevos modelos científico sociales en donde se pone en duda el valor de las leyes científicas y el uso de metodologías cuantitativas, en ciencias naturales la forma en que se ha operado esta transformación en la comprensión de la ciencia es hacia un modelo de ciencia en donde la interpretación de las leyes naturales queda sujeta a grandes márgenes de indeterminación e incertidumbre, entendiéndose un necesario margen de libertad a los fenómenos, comprendiendo que cualquier predicción posible carece de certeza absoluta, habiendo márgenes de error en las afirmaciones y predicciones.

Es precisamente en los años en que Planck, Einstein, Heisenberg, Schrondinger y los primeros grandes teóricos de la mecánica cuántica y la cosmología de principios del siglo XX hacen sus descubrimientos más importantes, cuando emerge con toda su fuerza el positivismo lógico, en un momento de las ciencias naturales en donde se avanza al relativismo y el indeterminismo, momento en que esta escuela desarrolla una ciencia claramente nomotética. Si se observa las revelaciones científicas de principios del siglo XX, ninguno de los grandes físicos teóricos de la época pone en cuestionamiento las leyes científicas, lo que hacen es advertir que lo que las leyes científicas manifiestan es que la ocurrencia de sucesos queda sujeta a grados de posibilidad. Lo que se opera es un cambio de un modelo nomotético determinista a un modelo nomotético indeterminista. En ningún momento se produce una ruptura frente a Galileo, quien ya propone en las ciencias naturales el establecimiento de leyes naturales sobre lenguaje matemático, sólo se produce una ruptura frente al determinismo aristotélico.

El determinismo clásico, el determinismo aristotélico, por el cual la realidad es una secuencia determinada y ordenada de relaciones causa-efecto, completamente predecibles en la teoría de probabilidad de Laplace, que en su origen se deben a un primer motor, o causa primera, lo que en la metafísica escolástica se vincula a la idea de Dios, es un determinismo que si bien todavía hoy tiene importantes defensores, la idea de que el universo y la realidad es una secuencia predecible de causas y efectos que tiene por origen el Big Bang, sin embargo a medida que las ciencias se desarrollan el determinismo clásico está siendo abandonado por nuevos modelos de determinismo más sofisticados, lo que sería en realidad un neo-determinismo.

El determinismo clásico aristotélico parte de la idea de que todo está determinado por relaciones de causalidad, ahora bien, en la medida que esta idea ha sido fuertemente criticada desde las ciencias en el siglo XX, el determinismo clásico ha sido abandonado por nuevos modelos neo-deterministas, en donde si bien admiten márgenes de indeterminación, incertidumbre, o relativismo, entienden la determinación de la realidad en base a determinados reduccionismos.

Mucho de los reduccionismos de las ciencias sintéticas del siglo XX, y que encuentran diversos correlatos a inicios del siglo XXI, son en realidad neo-determinismos adaptados a las nuevas circunstancias que rodean a la filosofía y la ciencia.

Un ejemplo de neo-determinismo es el fisicalismo del siglo XX, una corriente que surgirá dentro del positivismo, según la cual todos los procesos naturales o sociales están determinados por los procesos físicos subyacentes. El fisicalismo del siglo XX en ningún momento rechaza la incertidumbre o la indeterminación de la física, ahora bien, aceptando que la física es una ciencia estocástica, luego indeterminada, establece que todas las demás ciencias y disciplinas científicas de uno u otro modo quedan determinadas por las relaciones estocásticas de la física. El fisicalismo supone un neo-determinismo por cuanto ya no defiende el determinismo clásico de Aristóteles, en la medida que acepta la indeterminación, la incertidumbre y el relativismo, es decir, acepta que la física es una ciencia estocástica no sujeta a determinaciones causales universales, pero sin embargo determina que todo cuanto pueda suceder en la naturaleza y la sociedad, y pueda ser estudiado por las demás ciencias naturales o sociales, son procesos determinados y supeditados a las relaciones estocásticas de la física.

De igual modo, muchos de los reduccionismos del siglo XX, por ejemplo el biologismo, según el cual todo queda determinado por la biología, incluso la teoría del conocimiento que depende de la fisiología, fisiologismo, o el economicismo según el cual todo queda determinado por la economía, en el caso del conocimiento por los intereses económicos, el psicologicismo por el cual todo está determinado por la psicología, y por supuesto la psicología del conocimiento, o el sociologismo según el cual todo queda determinado por las relaciones sociales, siendo el conocimiento una construcción social. Todo reduccionismo a su forma, aceptando en aquello sobre lo que hace la reducción un margen de indeterminación, todo lo demás queda determinado .

Aunque el biologismo pueda entender un margen de indeterminación en las relaciones biológicas, posteriormente todas las demás funciones humanas, sociales, económicas, culturales, quedan determinadas sobre las funciones de indeterminación biológicas. Es un neodeterminismo por cuanto entiende que hay un margen de indeterminación biológica, pero es sobre ese margen de indeterminación biológica sobre lo que se determina todo lo demás. En el economicismo sucede exactamente lo mismo, entendiendo que en las leyes del mercado, o cualquier otra ley económica hay márgenes de indeterminación, es sobre los márgenes de indeterminación de la economía sobre lo que posteriormente determina todas las demás funciones humanas. En el psicologicismo, aunque hay márgenes de indeterminación en la psicología humana, todas las demás funciones se supeditan y quedan determinadas por la psicología. Y en el sociologismo, aunque haya un margen de incertidumbre social, es sobre la incertidumbre social lo que se determinan todas las demás funciones.

Las críticas a este tipo de neo-determinismos en la epistemología y la filosofía del siglo XX han sido diversas, por la complejidad a la que tienden las ciencias hoy en día que escapan a la reducción o simplificación de todo a unos pocos factores. De un lado las ciencias físicas avanzan hacia una explicación del todo, tal como propone la Teoría de Cuerdas, lo cual supone un progreso hacia la unificación de la ciencia, aunque dentro de este tipo de teorías siempre hay riesgo de fisicalismo, si es que no riesgo de pitagorismo, y de otro lado, las nuevas teorías de la complejidad, que avanzan hacia una visión compleja en principio no reductible, aunque en algunas interpretaciones de este paradigma hay riesgo de biologismo, aunque sería más correcto decir vitalismo, por lo importante que ha sido la biología, y las reminiscencias de la metafísica vitalista, en el origen de las ciencias de la complejidad.

En la dialéctica entre determinación e indeterminación, a menudo se observa como paradigmas en principio no deterministas evolucionan a postulados deterministas, y viceversa, una ciencia históricamente determinista como ha sido la física a partir de Heisenberg tendrá importantes desarrollos indeterministas en el campo de la mecánica cuántica.

 A lo largo de la historia de la filosofía y la ciencia se observa una sucesión de paradigmas, a veces en una evolución en ciclos pendulares, en donde la filosofía y la ciencia, en su evolución cíclica, evolucionan yendo de un extremo a otro. Siendo en sus inicios el determinismo parte integrante de la ciencia, hasta finales del siglo XIX y principios del siglo XX, momento en que la crítica a este tipo de modelos, junto con la crítica que en el siglo XIX se hace a la lógica lineal y la geometría euclidiana, llevará a nuevos modelos de lógica, y nuevas formas de entender la realidad, en donde al tiempo que aparecen nuevos neo-determinismos, la incidencia del indeterminismo ha sido de enorme influencia.

Este cambio de paradigma científico tendrá mucha relación con los cambios que se ha producido desde la Ilustración, en donde hay una clara reivindicación del concepto de libertad, abandonando cualquier determinación absoluta sobre el comportamiento humano, a diferencia de épocas anteriores, por ejemplo la Reforma calvinista, en donde el comportamiento humano era una función determinada por parámetros religiosos.

Indeterminación y libertad tendrán una amplia repercusión en ciencias sociales, y especialmente en política, donde a medida que desde el siglo XIX triunfen las revoluciones democráticas, aparecen nuevos discursos liberales, de social-democracia, socialistas, y libertarios, haciendo un discurso sobre la importancia de la libertad del ser humano, y como la voluntad debe quedar libre de cualquier tipo de atadura, especialmente supersticiosa o metafísica, surgiendo así nuevos paradigmas en la ciencia, como el materialismo moderno, el positivismo o el nihilismo.

La indeterminación en la medida que supone ausencia de determinación, implica un margen de escepticismo empírico o duda racional en el conocimiento de lo que sucede, que de facto en la teoría de Probabilidad Imposible lleva a un margen de nihilismo lógico, dentro de los márgenes de error de la razón crítica.

 
 


Rubén García Pedraza, Madrid a 4 de diciembre del 


https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 

 
 
http://probabilidadimposible.wordpress.com/