Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


miércoles, 21 de enero de 2015

Nueva Edición 2015 de Introducción a la Probabilidad Imposible disponible al público

 

La vista previa de Google Libros ofrece una lectura gratuita del 20% del total la obra, aproximadamente 80 páginas en donde introducirse en la nueva teoría de Probabilidad Imposible aplicada a la estadística de la probabilidad o probabilidad estadística, y para los que quieran un conocimiento más profundo desde Google Play pueden adquirir ya la versión ebook.
 

De momento la versión ebook en Google Play se encuentra disponible para los siguientes países: AR, AS, AT, AU, BE, BO, BR, BY, CA, CH, CL, CO, CR, CZ, DE, DK, DO, EC, EE, FI, FR, GB, GR, GT, GU, HK, HN, HU, ID, IE, IN, IT, JP, KG, KR, KZ, LT, LU, LV, MH, MP, MX, MY, NI, NL, NO, NZ, PA, PE, PH, PL, PR, PT, PW, PY, RO, RU, SE, SG, SV, TH, TR, TW, UA, US, UY, UZ, VE, VI, VN, ZA.
 

Para aquellos países en donde la obra no esté  todavía disponible en Google Play, desde la propia página de Google Libros, si se hace click en cómo conseguir el libro físico, o se hace click sobre el enlace de Lulu.com, desde Google Libros se tiene acceso directo a amazon.com o amazon.es, en donde la obra también se encuentra para público.
 

Ya desde el mes de enero Introducción  a la Probabilidad Imposible (Edición 2015), estadística de la probabilidad o  probabilidad estadística, se encuentra en formato ebook en amazon.com y amazon.es, en donde también se ofrece una vista previa del libro, aunque ligeramente más restringida que en Google Libros.
 
La selección parcial que de la obra ofrece el Programa de Vista Previa de Google Libros ofrece una panorámica general de toda la obra, y de todos los apartados hay prácticamente seleccionada alguna página, en donde los lectores pueden hacerse al menos una idea global de la obra, y para los que estén más interesados en una lectura profunda y atenta tener ocasión de adquirir la obra, ya sea en formato digital o impreso.
 

La obra condensa una nueva teoría con nuevas aportaciones a la estadística y la probabilidad desde definiciones renovadas a los conceptos tradicionales, una reinterpretación de los conceptos clásicos de tendencia central o dispersión estadística en donde la probabilidad aplicada a la estadística alcanza nuevos desarrollos.
 

La explicación a algunos de los elementos más fundamentales de la teoría de Probabilidad Imposible ya han sido explicadas en este blog, aunque no son más los elementos más imprescindibles para comprender la teoría, para un conocimiento más exaustivo de hasta donde alcanza la teoría es necesaria una minuciosa lectura, en donde el lector puede comprobar como los desarrollos de la razón crítica aplicada al contraste de hipótesis en estadística inferencial, a partir de las nuevas definiciones en estadística descriptiva, crean un nuevo campo de investigación, en donde esta obra no es más que una simple introducción a un campo de investigación mucho más amplio.
  

La primera edición de la obra fue en formato físico en el año 2011, desde entonces la obra se ha ido reformulando y actualizando, encontrándose presente ya en diversas bibiliotecas universitarias latinoamericanas y españolas para consulta de expertos y estudiantes. La primera vez que apareció en ebook fue en la actualización de enero del año 2013, y en 2014 fue de nuevo actualizada, tanto la versión ebook y la versión digital.

La obra que aquí se expone, Probabilidad Imposible, es una teoría totalmente nueva, llena de nuevos alicientes al estudio de la realidad, en donde los lectores, una vez que entiendan el proceso de elaboración de la teoría, comprenderán la enorme variedad de vías de investigación y desarrollo matemático que ofrece esta teoría,  que lentamente va encontrando una amplia aceptación entre investigadores y científicos que precisan de herramientas estadísticas, si bien el hecho de lanzar una nueva teoría como es ésta, totalmente novedosa en las nuevas definiciones y formulaciones,  elaborando nuevos conceptos y técnicas de contraste de hipótesis, en estadística y  probabilidad, es un proceso  complejo no exento de dificultades, en la medida que implica un proceso de adaptación de los esquemas estadísticos tradicionales a los que esta nueva teoría desarrolla.
 
Rubén García Pedraza, Madrid a 8 de febrero del 2015
Corregido 3 Enero 2024, Madrid

lunes, 19 de enero de 2015

Nueva edición revisada de Introducción a la Probabilidad Imposible disponible al público en los próximos días

En los próximos días, o quizás horas, la nueva edición actualizada 2015 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, estará disponible para los lectores a través de los canales habituales de amazon y createspace.
Para los lectores que durante el día de hoy se hayan encontrado con la sorpresa de que no estaba ya disponible al público, informarles que se trata sólo de una suspensión temporal mientras los equipos de amazon y createspace validan los contenidos y vuelven a poner el libro en venta con las nuevas modificaciones incorporadas.
Normalmente el tiempo en que se tarda en realizar el proceso suele durar tan sólo unas horas, muy probablemente a lo largo del día de mañana ya estará disponible a la venta el libro en las librerías virtuales indicadas, no aun así, por si hubiera alguna incidencia en el servicio, se deja indicado que será en los próximos días cuando la nueva actualización de Introducción a la Probabilidad Imposible 2015 verá la luz.
De momento los canales de distribución de Introducción a la Probabilidad Imposible seguirán siendo amazon y createspace, aunque se está estudiando la posibilidad de ampliar a más canales de distribución, como ya en el pasado se había distribuido por Lulu, o por Google Libros, donde de momento sigue la vista parcial de la primera edición ebook 2013, aunque se retirará del servidor en cuanto aparezca la nueva versión 2015.
Más adelante en este mismo blog se irá informando de las principales novedades de la versión 2015 para ebook y material impreso, de momento sólo añadir que la principal incorporación es el tratamiento de puntuaciones directas de signo negativo, cuando en universos infinitos la escala de medida comprenda desde enteros negativos a positivos, debiéndose ser tratados a través de probabilidades estadísticas.
En cuanto la nueva actualización esté disponible en amazon y createspace se informará inmediatamente a través de este blog, y sus redes sociales.
Para aquellos lectores que han seguido adquiriendo la obra incluso aun después de la advertencia en ese blog de que próximamente saldría la nueva edición, y para todos los lectores que en los anteriores dos años ya han adquirido anteriores ediciones, se estudiará el modo de poner a su disposición algún documento en formato PDF con las últimas actualizaciones.
La importancia de la actualización 2015 reside en que muy posiblemente la actualización que saldrá en las próximas horas o días sea la  base de futuras publicaciones periodicas, en los próximos años se publicarán monografías sobre aspectos concretos y particulares de Probabilidad Imposible, monografías para cuya comprensión será imprescindible a priori un buen conocimiento sobre qué es la Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística. 

Rubén García Pedraza, Madrid 19 de enero  del 2015

 

 
  

sábado, 17 de enero de 2015

Ensayo y error

Ensayo y error es un método específico de investigación donde si para un problema hay una serie de posibles hipótesis y sólo una es correcta, el equipo de investigación prueba o ensaya cada hipótesis hasta llegar a la acertada. El método de ensayo y error históricamente se ha asociado al método experimental en ciencias naturales, o quasi-experimental en ciencias sociales, aunque en realidad se utilizan en multitud de disciplinas y ciencias sintéticas.
 

El origen de este método se encuentra en la moderna filosofía empirista , que utiliza la inducción para el desarrollo de hipótesis. Dentro del empirismo hay que diferenciar entre empirismo clásico, cuyo máximo exponente es Aristóteles, y el  empirismo moderno. En Aristóteles el conocimiento es producto de la observación o contemplación de la naturaleza, en donde el concepto de experiencia es pasivo, experiencia sensorial, la afectación perceptiva en la tabula rasa, sin necesidad de que el observador manipule u opere en la realidad. En el empirismo moderno el investigador asume un rol activo, la experiencia ya no es sinónimo de contemplación de la naturaleza , ahora por experiencia se entiende la manipulación de la naturaleza, bajo condiciones de control experimental, o si se puede condiciones de control de laboratorio, siendo bajo control experimental o control de laboratorio donde se realizan los ensayos.  Para el empirismo moderno experiencia es sinónimo de experimentalismo, no contemplación pasiva de las fuerzas naturales. El investigador asume un rol activo donde su función es la manipulación de la realidad, surgiendo así el moderno método experimental en ciencias naturales, y quasi-experimental en ciencias sociales.
 
Dentro del empirismo  moderno las figuras más emblemáticas serán Roger Bacon en el siglo XIII y Francis Bacon, XVI-XVII, método experimental que después tendrá importantes aplicaciones en la nueva ciencia, especialmente para Galileo y Newton que pondrán a prueba muchas de sus hipótesis. Una vez dijo Richard Feynnman que si hubiera algo que deberíamos legar para el futuro en caso que nuestra civilización desapareciera, sería el método experimental. De la síntesis entre método experimental y métodos matemáticos, las ciencias tendrán un  importante desarrollo desde la modernidad a la época contemporánea.
 

Dentro de la filosofía empirista fue Hobbes quien precisamente específica que el método de conocimiento humano por naturaleza es el de ensayo y error, elaborando una teoría inductivista donde el origen del conocimiento son las percepciones sensoriales, sólo que ahora de una forma activa, el conocimiento ya no es producto de la contemplación pasiva, es producto de la interacción entre el sujeto y su entorno en donde a través de la experiencia activa, por ensayo y error aprende cual es la mejor forma de operar  en la realidad.

El inductivismo y el empirismo desde muy temprano asumen el método de ensayo y error, dado que en un contexto donde hay varias hipotéticas soluciones, en ausencia de otro criterio el único modo de llegar a  la correcta es poniendo a prueba cada de ellas. Por ensayo y error se entiende que dado un rompecabezas para el cual existe un conjunto de posibles hipótesis,  la solución será inevitable probando cada una ellas, descartando las erróneas hasta encontrar la más verdadera.

Este tipo de métodos a medida que las ciencias han ido evolucionando se ha ido sintetizando a otros paradigmas no necesariamente inductivistas, pudiendo tener claras traslaciones a los métodos deductivistas. Un ejemplo claro el modo en que el médico Fulop Semmelweis, siglo XIX, redujo severamente la tasa de mortalidad en mujeres parturientas en el hospital de Viena. Después de poner a prueba todas las hipótesis posibles, una vez que observa que la mayor tasa de mortalidad se produce cuando los estudiantes de medicina atendían a las embarazadas, decide introducir medidas de asepsia, reduciendo la mortalidad. La hipótesis que manejó Semmelweis en aquel momento es que, en ausencia de medidas de higiene y asepsia, cada vez que los estudiantes accedían a las instalaciones y ayudaban en parto, traían consigo algún tipo de bacteria que era la que producía las altas fiebres y la alta tasa de mortalidad en las mujeres a las que estaban ayudando a dar a luz. Dentro de los manuales positivistas a este tipo de relaciones lógicas causa-efecto entre asepsia y reducción de la natalidad, le brindan un origen inductivista, cuando posiblemente más que inducción se deba a una deducción lógica.

Hoy en día la teoría del ensayo y error más que una praxis exclusivamente inductivista es aplicada a infinitud de ciencias y disciplinas y no necesariamente sobre cánones inductivistas. Si dada una situación determinada para la solución de un problema, en función de las variables que participen, se pueden deducir lógicamente una serie de hipótesis, el método de ensayo y error nos permitiría poner a prueba cada una de las hipótesis ligadas a una interpretación posible de la interacción entre diferentes variables.

Si en un rompecabezas interviene un número indeterminado de variables, en función del tipo y número de variables que incluyamos en el modelo la hipótesis será diferente.

Si dado un rompecabezas hay un número indeterminado de variables, se pueden combinar las posibles variables en conjuntos  diferentes, y por cada conjunto una hipótesis empírica, de modo que tendremos tantas hipótesis como conjuntos. O incluso más complejo todavía, la elaboración de hipótesis por cada una de las diferentes combinaciones entre conjuntos de variables, es decir, una hipótesis por cada combinación de combinaciones.

En síntesis, dada una serie de hipótesis empíricas deducidas lógicamente de su conjunto de variables, o combinación de conjuntos de variables, lo cual en suma generaría una serie de hipótesis posibles, la única solución es poner a prueba cada hipótesis, e ir refutando aquellos que superen el margen de error de la razón crítica, y finalmente aceptar como suficientemente racional la que genere el menor error posible, la que disponga de mayor fiabilidad.

Pongamos por caso el posible descubrimiento de un tratamiento o vacuna para el VIH o el ebola. En función de las  cualidades o variables que se atribuyan a un virus la elaboración de una vacuna o tratamiento médico diferirán enormemente. Muy posiblemente el descubrimiento inicial de cuales son sus cualidades dependerá de que en la primera fase la investigación, estadística descriptiva, nos aporte datos suficientes para conocer las cualidades estándar del virus, y sobre dichas cualidades posteriormente deducir lógicamente cual sería la vacuna o tratamiento más eficaz. En función de las variables que se detecten en la primera fase de la investigación descriptiva, dependerán las hipótesis empíricas que lógicamente se deduzcan sobre el comportamiento observado en dichas variables, de forma que, dado un conjunto de hipótesis en función de diferentes modelos atribucionales a diferentes conjuntos variables, o combinación de conjuntos de variables, cabe la posibilidad de poner a prueba diferentes hipótesis empíricas, en este caso vacunas o tratamiento médico.

Aunque originalmente el método de ensayo y error nace de empirismo, su aplicación trasciende dicho paradigma, y dentro de teorías racionalistas y deductivistas tiene importantes aplicaciones, dado que ante el desconocimiento de lo que realmente sucede, y siendo  factible la deducción lógica de conjuntos de hipótesis para cada casuística en particular, generando una serie de deducciones lógicas, hipótesis empíricas, que deben ponerse a prueba, el método de ensayo y error sería necesario para el proceso de descarte de aquellas hipótesis que no alcancen la suficiencia racional, y se acepte sólo aquella que demuestre una verdadera tendencia racional.

Por otro lado habría que señalar que aunque la teoría del ensayo y error surge por primera vez en los métodos experimentales modernos, sin embargo su aplicación práctica trasciende el método experimental o cuasiexperimental, pudiéndose aplicar a una infinidad de ciencias.

En realidad lo que llamamos métodos experimental de hecho no es otra cosa que una aplicación del método comparado, porque lo que el método experimental hace es una comparación entre, o bien el objeto antes y después de la manipulación experimental, o si disponemos de grupo de control, la comparación entre grupo experimental y grupo de control.

Si aplicamos una medicina a un enfermo, en ausencia de grupo de control, simplemente para ver los efectos en ese sujeto, si la medicina surte efecto comparamos es que gracias a esa medicina el paciente se recupera, ese proceso de recuperación lo testamos en el momento que comparamos la situación antes y después de la aplicación de la medicina .

Si un profesor tiene un alumno con dificultades en el aprendizaje, y los métodos educativos convencionales no ayudan, y cambia de método didáctico, y observa una mejora en el aprendizaje, lo que realmente hace es una comparación entre los resultados obtenidos entre el método anterior y el nuevo método de aprendizaje.

Si en una investigación médica sobre el tratamiento de una dolencia se dispone de grupo experimental y otro de control, y se comparan los resultados entre ambos grupos, igualmente se está aplicando el método comparado, de igual modo que si a un grupo de alumnos se les aplica un método educativo experimental mientras a otro se les mantiene la educación convencional, y se observan mejoras en los resultados en el grupo experimental.

Si dada una serie de hipótesis deducidas lógicamente cada una de ellas en función de una serie de premisas diferentes,  se contrasta cada hipótesis, lo que se está haciendo es la comparación entre los resultados obtenidos por cada hipótesis al ponerse a prueba cada una de ellas.

Realmente el método de ensayo y error, al igual que el método experimental, se puede decir son variantes del método comparado en la ciencia moderna. Si para Durkheim el método comparado era el método de las ciencias sociales, al igual que el experimental para las ciencias naturales, en realidad habría que decir al revés, el método experimental es a las ciencias naturales lo que el método comparado para en general todas las ciencias sintéticas, e incluso se podría decir para todas las ciencias, incluidas las analíticas, en la medida que hay interpretaciones que de hecho defienden que las matemáticas se basan igualmente en el método comparado, detección de similitudes y diferencias cuantitativas.

El hecho de que durante la modernidad se asociara el método de ensayo y error al método experimental no quiere decir que realmente este tipo de método sea sólo experimental. Si por ensayo y error entendemos proceso de descarte de hipótesis incorrectas, en realidad lo que viene a representar la teoría del ensayo y error es lo que Popper denominaría la lógica del descubrimiento científico, el falsacionismo, una hipótesis es verdadera mientras no se refute, o lo que es lo mismo, mientras no dé lugar a error, momento a partir del cual se demostraría falsa.

En realidad el concepto de ensayo y error define la lógica de la ciencia, o al menos las ciencias sintéticas: las hipótesis empíricas son verdaderas mientras no generen un nivel de error inasumible para la ciencia, momento a partir del cual son refutadas. En realidad toda las ciencias sintéticas en su conjunto funcionan por ensayo y error, y no sólo desde planteamientos empiristas o inductivistas, igualmente desde planteamientos racionales y deductivistas.

En Probabilidad Imposible la asunción de este tipo de postulados se elabora desde la síntesis de los principales paradigmas de la época contemporánea, racionalismo crítico, positivismo, y materialismo moderno, dentro de los cuales se asume que el conocimiento es resultado de la actividad o praxis, que implica interacción con la realidad, lo cual, bajo determinadas condiciones, implica el uso del método experimental, tal como ha defendido tradicionalmente el positivismo en ciencias naturales, o quasi-experimental o método comparado en ciencias sociales, aunque dentro de un margen de duda racional, y aceptando que la ciencia lejos del ideal de neutralidad, es una cuestión política, tal como señala el materialismo moderno, dependiente de la política científica de las agencias de investigación y sus equipos científicos.

Aunque de forma general el concepto ensayo y error define una lógica científica, por la que todas aquellas hipótesis refutadas se descartan, de forma específica históricamente se ha ligado al método experimental, del cual es una variante o sub-método, donde dada una serie de hipótesis posibles, en ausencia de cualquier otra determinación lógica o empírica, el único modo de corroborar cual es la más adecuada es probando cada una de ellas.

Ejemplos de método experimental en Probabilidad Imposible se abordan en el apartado 10 de la Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, donde se exponen ejemplos para la puesta a prueba de hipótesis explicativas e hipótesis tecnológicas.

Los ejemplos de método experimental en el apartado 10 se refieren tanto a estudios de igualdad de oportunidades y estudios de sesgo, sea sesgo positivo o sesgo negativo, en modelos normales y modelos omega. Señalar que , en Probabilidad Imposible, dentro de la metodología experimental, asociada al método de ensayo y error, lo que en realidad se valora es cual de las hipótesis genera un margen de error dentro de la razón crítica. En ningún momento se dice que se aceptara aquella hipótesis libre de error, sólo que de todas se aceptará la que menor error racional genere, lo cual por supuesto no implica que sea absolutamente verdad, sólo  que es relativamente verdad en forma inversamente proporcional a su margen de error, y que en cualquier caso, en el momento que el error posible se haga real, la hipótesis será automáticamente refutada y descartada, momento desde el cual, sobre los hechos que refutaron y descartaron la hipótesis anterior, se inicia un nuevo proceso de ensayo para encontrar nuevas hipótesis más isomorfas.

 
 



Rubén García Pedraza, Madrid 18 de enero del 2015



https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false
 
 
 
http://probabilidadimposible.wordpress.com/                                     

 

martes, 13 de enero de 2015

Próxima actualización de Introducción a la Probabilidad Imposible


Desde primeras horas de la mañana hoy, 18 de febrero del 2015, Introducción a la Probabilidad Imposible (Edición 2015), estadística de la probabilidad o probabilidad estadística ya está disponible en la plataforma digital de Google Play para España, desde además los lectores tienen acceso a una muestra parcial del para que comprueben por sí mismos las novedades que para las matemáticas, y particularmente el campo de la estadística de la probabilidad o probabilidad estadística, representa este nuevo enfoque.

Para todos los lectores fans del sistema Android y productos Google, ahora pueden añadir Introducción a la Probabilidad Imposible (Edición 2015), estadística de la probabilidad o probabilidad estadística, a la biblioteca de su dispositivo Smartphone o Tablet, desde donde podrían descargar la obra y tenerla lista para su lectura en cualquier momento y lugar subrayando, destacando y anotando las partes más sobresalientes.

Una de las principales ventajas de Introducción a la Probabilidad Imposible (Edición 2015), en Google Play es que permite desplegar en todo momento el menú del índice seleccionando la parte a la cual el lector quiere dirigirse.

Precisamente una de las cosas buenas que muchos lectores han destacado de la obra es facilidad de lectura y de localización de los párrafos al estar cada uno de ellos numerados en función de su localización en el apartado.

Las principales innovaciones de Probabilidad Imposible en estadística y probabilidad, y que a modo introductorio se vienen explicando en esta blog, devienen por una interpretación diferente del campo, desde un determinado paradigma, desde el cual la definición clásica de probabilidad: número de casos favorables entre total de casos; o la definición clásica de probabilidad estadística: igual a frecuencia relativa; son definiciones sustituidas y redefinidas por una nueva interpretación de la realidad, desde un enfoque positivo, racional, y dialéctico, en donde ante toda representación empírica de la realidad siempre cabe una definición teórica, de lo que se deduce la diferenciación entre probabilidad y probabilidad teórica, diferenciación de la cual se deduce lógicamente un Segundo Método para la estadística y la probabilidad en tanto que ciencias analíticas en sí mismas, por cuantos disciplinas matemáticas de análisis, y ciencias aplicadas por cuanto de ellas surgen métodos que aplicados a las ciencias empíricas o sintéticas permiten innovadores métodos de contrastes de hipótesis, de los que dependen las actuales epistemologías cuantitativas.

Además la importancia de la Edición 2015 de Introducción a la Probabilidad Imposible consiste en que va  a ser la última revisión de la obra. Si desde su primera publicación en formato papel en 2011, de la cual existen ya bastantes ejemplares en bibliotecas universitarias españoles  y latinoamericanas, se ha ido actualizando en 2013 y 2014, incorporando nuevos contenidos y desde un enfoque cada vez más positivo de la ciencia, aunque en lo esencial son absolutamente fieles a los postulados y principios originales, la Edición 2015, dentro de la tradicional conservación de los valores y principios fundaciones de la teoría, introduce la novedad del tratamiento estadístico de puntuaciones directas de signo negativo.

Otro elemento que hacen de esta Edición 2015 una revisión fundamental para esta nueva teoría en este campo del conocimiento matemático, es que será la revisión definitiva. A partir de ahora cualquier nueva aportación a la teoría de Probabilidad Imposible se realizará a través de publicaciones periódicas donde se incrementen los elementos teóricos, ecuaciones, y nuevas formulaciones, para cuya comprensión será trascendental y conocimiento profundo de la obra fundadora, Introducción a la ProbabilidadImposible, (Edición 2015), estadística de la probabilidad o probabilidad estadística.

Ahora gracias a la vista previa que ofrece Google Play el lector puede acceder a una vista parcial a estas nuevas innovaciones, y para los que quieran un estudio más profundo,  pueden adquirir la obra completa.

 En estos momentos, además de España, que desde hoy 18 de febrero se encuentra en Google Play, los países desde donde se puede adquirir Introducción a la Probabilidad Imposible en Google Play desde el pasado 8 de febrero del 2015 son los siguientes:

AR, AS, AT, AU, BE, BO, BR, BY, CA, CH, CL, CO, CR, CZ, DE, DK, DO, EC, EE, FI, FR, GB, GR, GT, GU, HK, HN, HU, ID, IE, IN, IT, JP, KG, KR, KZ, LT, LU, LV, MH, MP, MX, MY, NI, NL, NO, NZ, PA, PE, PH, PL, PR, PT, PW, PY, RO, RU, SE, SG, SV, TH, TR, TW, UA, US, UY, UZ, VE, VI, VN, ZA.

Y además de poder tener acceso tanto a la vista parcial, como a la obra completa, desde Google Play, por supuesto la opción de añadir Introducción a la Probabilidad Imposible a tu Biblioteca de Google Libros, desde la que también se puede tener acceso desde Smartphones y Tablets a través de la aplicación Play Libros del sistema Android.
 

Rubén García Pedraza, Madrid 18 de febrero del 2015

 

sábado, 3 de enero de 2015

Indeterminación





Indeterminación se dice en ausencia de determinación, porque las relaciones entre los elementos no son estrictamente causales, o son causas asociadas a un nivel de probabilidad,  causas probables, o simplemente variables correlacionales, en cualquier caso se llama indeterminación a todo contexto estocástico donde lo que sucede está asociado a algún grado de posibilidad.

En el siglo XX el concepto de indeterminación ha estado ligado al concepto de incertidumbre, entre otras razones, gracias al principio de Heisenberg, al cual, dependiendo del tipo de manuales o libros de divulgación científica, se le denomina principio de incertidumbre o principio de indeterminación.

El motivo por el que indeterminación e incertidumbre se han encontrado ligadas en la física, y en general al positivismo, se debe a que si certeza es cuando la probabilidad asociada a un acontecimiento es igual a uno, “1”, lo que en Probabilidad Imposible se denomina Máxima Probabilidad Empírica Posible, dado que la probabilidad es un término matemático que sólo puede oscilar entre cero, “0”, y uno, “1”, cuando se dice que la probabilidad de ocurrencia de un suceso es igual a uno, “1”, entonces hay absoluta certeza de que ese suceso vaya a ocurrir, no habiendo la más mínima duda de que pueda no suceder. En tal caso la certeza de ocurrencia es absoluta, determinación.

Sólo si la probabilidad de un fenómeno es inferior a la unidad, “1”, aunque mayor a cero, “0”, se dice que se hay un nivel de incertidumbre proporcional a la diferencia de la unidad, “1” menos esa probabilidad.

En función del nivel de incertidumbre, diferencia de uno, “1”, menos la probabilidad de ocurrencia, se asignará un grado de incertidumbre al fenómeno, y sólo si el nivel de incertidumbre es cero habría certeza absoluta. Salvo este caso, la incertidumbre es proporcional a la diferencia de la unidad, “1”, menos la probabilidad de ocurrencia.

A esta probabilidad de ocurrencia en Probabilidad Imposible se la denomina probabilidad empírica, y es igual a la puntuación directa o frecuencia de sujeto u opción entre sumatorio de puntuaciones directas o frecuencia. La teoría de Probabilidad Imposible en la medida que está enfocada a la crítica racional de lo que sucede, la realidad, o ha sucedido, la historia, la forma en que se calcula el margen de incertidumbre es a través del margen de error, de modo que cualquier hipótesis aceptada sobre un margen de error, es una hipótesis con un nivel de incertidumbre idéntico al margen de error, el cual previamente ha establecido la política científica en función de su razón crítica, y matemáticamente en el contraste de hipótesis se representa en forma de probabilidad crítica.

Siempre que en un modelo de ciencias sintéticas, naturales o sociales, no hay absoluta certeza de lo que puede suceder, es un modelo de indeterminación estocástica cuyo estudio depende de la utilización de métodos estocásticos, la estadística y la probabilidad. En el caso de Probabilidad Imposible, a través del campo de estudio que supone la estadística de la probabilidad o probabilidad estadística, para lo cual se genera una serie de métodos de estudio alternativos, el Segundo Método, el Impacto del Defecto, la Distribución Efectiva, y los estudios de ranking, todos ellos explicados en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

Se dice que un modelo de causalidad está sujeto a índices de probabilidad, causas probables, cuando no hay evidencia suficiente empírica que demuestre una vinculación clara y directa entre causa y efecto, de modo que la relación de causa y efecto es sólo probable. El ejemplo que suele citarse en Introducción ala Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, es la probabilidad del arco-iris . Si bien sabemos que cuando un rayo de luz penetra una gota de agua produce el efecto óptico de la fragmentación del espectro de colores de la luz, el hecho que llueva durante el día, dándose las condiciones de posibilidad del arco-iris, no es motivo o causa suficiente que determine la aparición del arco-iris, lo único que podemos saber es, sobre número total de días de lluvia observados, cuantos días ha salido el arco-iris, luego la probabilidad empírica de aparición del arco-iris será igual a número de días de lluvia observados que ha salido el arco-iris, entre el número total de días de lluvia observados.

 El hecho que llueva no es causa determinante o automática de la aparición del arco-iris,  es un fenómeno que sólo se produce bajo determinadas condiciones de posibilidad estocásticas, las cuales se pueden medir estadísticamente en forma de probabilidad, en Probabilidad Imposible la probabilidad empírica.

De otro lado se pueden dar fenómenos en donde sin haber una relación unívoca o unidireccional de causa y efecto, se pueden dar correlaciones positivas o negativas, a causa de la interacción o retroalimentación mutua. En este tipo de escenarios, más que relaciones de causa y efecto,  en la medida que los fenómenos interactúan y se retroalimentan entre sí, lo más conveniente es hablar de correlación, la cual puede ser directa o inversa.

Se dice correlación directa cuando la relación entre una serie de elementos es directamente proporcional, en donde el factor de correlación es el valor cuantitativo en que se relacionan de forma positiva los elementos estudiados. Si en un modelo  se observa una serie de elementos un crecimiento, sea en igual o desigual medida o proporción, se dice que hay correlación positiva en la medida que todos incrementan su valor, ya sea un crecimiento igual o desigual, pero siempre que en todos se manifieste crecimiento, siendo el valor numérico de la correlación positiva el factor de correlación en el crecimiento entre las diferentes variables.

Correlación inversa es cuando hay una correlación inversamente proporcional, si disponemos de dos elementos, y en tanto que una crece el otro decrece, o varios elementos, en donde mientras un conjunto de elementos crece el otro decrece, se dice que hay correlación inversamente proporcional entre el valor que crece y el otro que decrece, o correlación inversamente correlacional entre el conjunto que crece y el otro conjunto que decrece.

Los motivos por los que dos o más variables pueden correlacionar son diversos, ya bien por simple simultaneidad coincidente, o bien porque dicha coincidencia se produce  por algún conjunto de factores subyacentes en un contexto común a los fenómenos, que los desconozcamos, y sea la causa probable de su aparición, o sea una correlación debida a la propia influencia mutua entre los factores que se estudian, interacción o retroalimentación. Además de que sea una correlación debida a un modelo de causalidad probable, en donde la ocurrencia de un suceso normalmente correlacione favorablemente con otro posterior del cual sea causa probable.

Una de las características de la ciencia contemporánea es  que frente los modelos deterministas clásicos de relaciones absolutas de causación, la ciencia contemporánea tiende más al estudio de los niveles de causación probable o correlación, ya sea en estudios sobre la relación entre dos variables, o multi-variable.

El hecho que se admita la existencia de ámbitos empíricos de indeterminación estocástica, ha sido utilizado por algunos paradigmas para oponerse frontalmente a cualquier visión nomotética y normativa, sin embargo es curioso que mientras los paradigmas idiográficos han hecho uso de este argumento para reivindicar una ciencia cualitativa, especialmente en ciencias sociales, en el campo de las ciencias naturales la aceptación de la incertidumbre y la indeterminación empírica, lejos de suponer el rechazo a la formulación de leyes naturales, ha sido un elemento sobre el cual se ha articulado una revisión conceptual de la estructura de la ciencia, que mantiene la necesidad de leyes sobre lenguaje matemático, tal como ya proponía Galileo, operando una redefinición en la función leyes científicas, adaptándose a los nuevos escenarios de incertidumbre y relatividad.

Mientras en ciencias sociales el impacto del relativismo y la incertidumbre, o las nuevas teorías de la complejidad y el caos, han llevado a nuevos modelos científico sociales en donde se pone en duda el valor de las leyes científicas y el uso de metodologías cuantitativas, en ciencias naturales la forma en que se ha operado esta transformación en la comprensión de la ciencia es hacia un modelo de ciencia en donde la interpretación de las leyes naturales queda sujeta a grandes márgenes de indeterminación e incertidumbre, entendiéndose un necesario margen de libertad a los fenómenos, comprendiendo que cualquier predicción posible carece de certeza absoluta, habiendo márgenes de error en las afirmaciones y predicciones.

Es precisamente en los años en que Planck, Einstein, Heisenberg, Schrondinger y los primeros grandes teóricos de la mecánica cuántica y la cosmología de principios del siglo XX hacen sus descubrimientos más importantes, cuando emerge con toda su fuerza el positivismo lógico, en un momento de las ciencias naturales en donde se avanza al relativismo y el indeterminismo, momento en que esta escuela desarrolla una ciencia claramente nomotética. Si se observa las revelaciones científicas de principios del siglo XX, ninguno de los grandes físicos teóricos de la época pone en cuestionamiento las leyes científicas, lo que hacen es advertir que lo que las leyes científicas manifiestan es que la ocurrencia de sucesos queda sujeta a grados de posibilidad. Lo que se opera es un cambio de un modelo nomotético determinista a un modelo nomotético indeterminista. En ningún momento se produce una ruptura frente a Galileo, quien ya propone en las ciencias naturales el establecimiento de leyes naturales sobre lenguaje matemático, sólo se produce una ruptura frente al determinismo aristotélico.

El determinismo clásico, el determinismo aristotélico, por el cual la realidad es una secuencia determinada y ordenada de relaciones causa-efecto, completamente predecibles en la teoría de probabilidad de Laplace, que en su origen se deben a un primer motor, o causa primera, lo que en la metafísica escolástica se vincula a la idea de Dios, es un determinismo que si bien todavía hoy tiene importantes defensores, la idea de que el universo y la realidad es una secuencia predecible de causas y efectos que tiene por origen el Big Bang, sin embargo a medida que las ciencias se desarrollan el determinismo clásico está siendo abandonado por nuevos modelos de determinismo más sofisticados, lo que sería en realidad un neo-determinismo.

El determinismo clásico aristotélico parte de la idea de que todo está determinado por relaciones de causalidad, ahora bien, en la medida que esta idea ha sido fuertemente criticada desde las ciencias en el siglo XX, el determinismo clásico ha sido abandonado por nuevos modelos neo-deterministas, en donde si bien admiten márgenes de indeterminación, incertidumbre, o relativismo, entienden la determinación de la realidad en base a determinados reduccionismos.

Mucho de los reduccionismos de las ciencias sintéticas del siglo XX, y que encuentran diversos correlatos a inicios del siglo XXI, son en realidad neo-determinismos adaptados a las nuevas circunstancias que rodean a la filosofía y la ciencia.

Un ejemplo de neo-determinismo es el fisicalismo del siglo XX, una corriente que surgirá dentro del positivismo, según la cual todos los procesos naturales o sociales están determinados por los procesos físicos subyacentes. El fisicalismo del siglo XX en ningún momento rechaza la incertidumbre o la indeterminación de la física, ahora bien, aceptando que la física es una ciencia estocástica, luego indeterminada, establece que todas las demás ciencias y disciplinas científicas de uno u otro modo quedan determinadas por las relaciones estocásticas de la física. El fisicalismo supone un neo-determinismo por cuanto ya no defiende el determinismo clásico de Aristóteles, en la medida que acepta la indeterminación, la incertidumbre y el relativismo, es decir, acepta que la física es una ciencia estocástica no sujeta a determinaciones causales universales, pero sin embargo determina que todo cuanto pueda suceder en la naturaleza y la sociedad, y pueda ser estudiado por las demás ciencias naturales o sociales, son procesos determinados y supeditados a las relaciones estocásticas de la física.

De igual modo, muchos de los reduccionismos del siglo XX, por ejemplo el biologismo, según el cual todo queda determinado por la biología, incluso la teoría del conocimiento que depende de la fisiología, fisiologismo, o el economicismo según el cual todo queda determinado por la economía, en el caso del conocimiento por los intereses económicos, el psicologicismo por el cual todo está determinado por la psicología, y por supuesto la psicología del conocimiento, o el sociologismo según el cual todo queda determinado por las relaciones sociales, siendo el conocimiento una construcción social. Todo reduccionismo a su forma, aceptando en aquello sobre lo que hace la reducción un margen de indeterminación, todo lo demás queda determinado .

Aunque el biologismo pueda entender un margen de indeterminación en las relaciones biológicas, posteriormente todas las demás funciones humanas, sociales, económicas, culturales, quedan determinadas sobre las funciones de indeterminación biológicas. Es un neodeterminismo por cuanto entiende que hay un margen de indeterminación biológica, pero es sobre ese margen de indeterminación biológica sobre lo que se determina todo lo demás. En el economicismo sucede exactamente lo mismo, entendiendo que en las leyes del mercado, o cualquier otra ley económica hay márgenes de indeterminación, es sobre los márgenes de indeterminación de la economía sobre lo que posteriormente determina todas las demás funciones humanas. En el psicologicismo, aunque hay márgenes de indeterminación en la psicología humana, todas las demás funciones se supeditan y quedan determinadas por la psicología. Y en el sociologismo, aunque haya un margen de incertidumbre social, es sobre la incertidumbre social lo que se determinan todas las demás funciones.

Las críticas a este tipo de neo-determinismos en la epistemología y la filosofía del siglo XX han sido diversas, por la complejidad a la que tienden las ciencias hoy en día que escapan a la reducción o simplificación de todo a unos pocos factores. De un lado las ciencias físicas avanzan hacia una explicación del todo, tal como propone la Teoría de Cuerdas, lo cual supone un progreso hacia la unificación de la ciencia, aunque dentro de este tipo de teorías siempre hay riesgo de fisicalismo, si es que no riesgo de pitagorismo, y de otro lado, las nuevas teorías de la complejidad, que avanzan hacia una visión compleja en principio no reductible, aunque en algunas interpretaciones de este paradigma hay riesgo de biologismo, aunque sería más correcto decir vitalismo, por lo importante que ha sido la biología, y las reminiscencias de la metafísica vitalista, en el origen de las ciencias de la complejidad.

En la dialéctica entre determinación e indeterminación, a menudo se observa como paradigmas en principio no deterministas evolucionan a postulados deterministas, y viceversa, una ciencia históricamente determinista como ha sido la física a partir de Heisenberg tendrá importantes desarrollos indeterministas en el campo de la mecánica cuántica.

 A lo largo de la historia de la filosofía y la ciencia se observa una sucesión de paradigmas, a veces en una evolución en ciclos pendulares, en donde la filosofía y la ciencia, en su evolución cíclica, evolucionan yendo de un extremo a otro. Siendo en sus inicios el determinismo parte integrante de la ciencia, hasta finales del siglo XIX y principios del siglo XX, momento en que la crítica a este tipo de modelos, junto con la crítica que en el siglo XIX se hace a la lógica lineal y la geometría euclidiana, llevará a nuevos modelos de lógica, y nuevas formas de entender la realidad, en donde al tiempo que aparecen nuevos neo-determinismos, la incidencia del indeterminismo ha sido de enorme influencia.

Este cambio de paradigma científico tendrá mucha relación con los cambios que se ha producido desde la Ilustración, en donde hay una clara reivindicación del concepto de libertad, abandonando cualquier determinación absoluta sobre el comportamiento humano, a diferencia de épocas anteriores, por ejemplo la Reforma calvinista, en donde el comportamiento humano era una función determinada por parámetros religiosos.

Indeterminación y libertad tendrán una amplia repercusión en ciencias sociales, y especialmente en política, donde a medida que desde el siglo XIX triunfen las revoluciones democráticas, aparecen nuevos discursos liberales, de social-democracia, socialistas, y libertarios, haciendo un discurso sobre la importancia de la libertad del ser humano, y como la voluntad debe quedar libre de cualquier tipo de atadura, especialmente supersticiosa o metafísica, surgiendo así nuevos paradigmas en la ciencia, como el materialismo moderno, el positivismo o el nihilismo.

La indeterminación en la medida que supone ausencia de determinación, implica un margen de escepticismo empírico o duda racional en el conocimiento de lo que sucede, que de facto en la teoría de Probabilidad Imposible lleva a un margen de nihilismo lógico, dentro de los márgenes de error de la razón crítica.

 
 


Rubén García Pedraza, Madrid a 4 de diciembre del 


https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 

 
 
http://probabilidadimposible.wordpress.com/