Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


domingo, 28 de julio de 2013

Las ciencias experimentales

Ciencias experimentales son aquellas ciencias sintéticas, naturales o sociales, que acceden al conocimiento objetivo a través del método experimental,   la manipulación de variables independientes para la observación de efectos o fenómenos o el comportamiento de variables dependientes,  ya sea de forma exploratoria, descriptiva, o la verificación de hipótesis empíricas experimentales, explicativas o tecnológicas.

 La condición de variable de un fenómeno queda definida por su ausencia de constancia,  luego sujeta a manipulación, directa, variable independiente, indirecta, dependiente, y las variaciones se midan cuantitativamente, en las ciencias estocásticas  la proporción de las correlaciones. Una variable que no pueda definirse en estos términos quedaría englobada en los factores aleatorios, llamados de error, los que no alcanza a explicar o comprender el modelo por carecer de información suficiente sobre la forma en que incide o afecta a la realidad, el producto de las variables. 

 Si tradicionalmente se considera los factores de error, siempre que el margen de error se mantuviera insignificante, irrelevantes, a medida que se imponen los paradigmas estocásticos y no lineales, hay una mayor conciencia de su gran relevancia, en tanto que causas en potencia de determinadas relaciones o interacciones, en la medida que, tal como establece la dialéctica hegeliana, lo insignificante se puede transformar en determinante,  hipótesis ampliamente desarrollada por la teoría del caos.

 Para hablar de manipulación experimental será necesario, además de la definición de las variables de estudio, en función de si se manipulan directamente, independientes, para el estudio de un determinado efecto o resultandos en que se da la manipulación científica de la realidad, las dependientes, es necesario un cierto nivel de control experimental o de laboratorio, a fin de aislar cualquier otra variable no identificada, y que pueda interferir en los efectos o resultados del estudio, en la medida que si no se crean las condiciones de control experimental o de laboratorio suficientes es posible que se establezcan unas determinadas formas de interacción entre las variables que sea incorrecta, por cuanto en realidad sean interacciones producto de otras variables no contempladas en el modelo pero que interaccionan en la práctica, las denominadas variables aleatorias o de error. 

 El problema del  aislamiento o control experimental o condiciones de laboratorio son determinantes por cuanto un estudio científico donde se manipule una realidad determinada, o se definen previamente todas las variables en juego, o se puede finalmente hacer atribuciones causales o correlaciones a determinadas variables de forma errónea o falsa por cuanto en realidad obedece a otras variables no incluidas en teoría pero que interaccionan en la realidad material.
 


 El método experimental puede tener diferentes finalidades, el igual que la ciencia en general, se dirá que la finalidad es exploratoria allí donde el conocimiento objetivo sea nulo o escaso, y descriptiva cuando la finalidad sea únicamente la creación de bases de datos sobre una realidad particular conocida. En ambas situaciones se accede a una primera aproximación o sondeo de las interacciones, sin necesidad que el objeto de estudio sea la inferencia de una hipótesis de una muestra al universo, al carecer de  hipótesis previa, sólo y únicamente sondea y describe lo que sucede en una determinada manipulación experimental, generando de esta forma  nuevas informaciones y conocimientos sobre las relaciones observadas para el establecimiento de nuevas hipótesis, que se validarán o refutarán en  subsiguientes investigaciones inferenciales.


En los estudios inferenciales las hipótesis experimentales explicativas, o simplemente hipótesis explicativas, son aquellas que ya previamente especifican la forma en que se debe producir la  interacción entre variables o la forma en que debe producirse un/os efecto/s o fenómeno/s, señalando a priori  el nivel, grado o proporción, en que se deben dar las interacciones o resultados , sea en ciencias naturales o sociales,  para lo que experimentalmente verifica o refuta el modelo que propone , manipulando la realidad de acuerdo a los presupuestos de la hipótesis empírica, para demostrar si se producen o no lo previsto en la realidad.


Tradicionalmente, aunque hoy en día superada por la interpretación estocástica en un mayor número de ciencias sintéticas, la interpretación tradicional de las relaciones entre variables era sobre una visión determinista producto de la sucesión concatenada de causas y efectos, propio del empirismo determinista aristotélico para quien todo efecto obedece a una causa en particular, y en general, todo y absolutamente todo devenía de un primer motor o causa primera, la forma secularizada aristotélica del Demiurgo platónico. En el determinismo el objeto del método experimental es la identificación de causas y efectos, de forma que si, dentro de la lógica lineal se da el patrón que “si A entonces B”, siendo B efecto de A o A causa de B, tantas veces A entonces tantas veces será B, de lo cual el modelo experimental vendría a verificar o refutar las relaciones de causa y efecto entre A y B, contrastando que la probabilidad de B está sujeta a la ocurrencia de A, la cual estaba sujeta a la manipulación experimental.
 

 La visión determinista de la ciencia sobre la determinación causa-efecto ha sido muy discutida, si bien, un modelo de método experimental sigue siendo hoy en día estudiar cual es el efecto que se produce dada una manipulación de la realidad, si bien, lo que ya se ha descarta es la visión determinista de que, dada una misma manipulación deba sucederse siempre el mismo efecto o fenómeno, en la medida que puede haber interacciones aleatorias desconocidas, aunque, lógicamente, de mantenerse las mismas condiciones experimentales lo lógico sería que dada una misma manipulación el efecto o fenómeno se mantuviese. 

Hoy en día, dentro de una visión más estocástica de la realidad, y más propia de la obra Introducción a la Probabilidad Imposible, en tanto que el universo es el resultado lógico de los accidentes y contingentes que se producen en el espacio-tiempo, la historia, el estudio de las interacciones entre A y B, siendo A la variable independiente y B el/los efecto/s o fenómeno/s o la variable dependiente, la manipulación experimental de la realidad, dentro de los postulados ideológicos de la política científica, es la observación de los efectos en B sobre la manipulación de A, lo que estudiaría el método experimental es la correlación entre A y B, siendo la correlación la cuantificación o proporción en que se produce la interacción entre A y B.  

En términos estrictamente de probabilidad, lógicamente si A entonces B, luego tantas veces A tantas veces B, necesariamente la proporción de A y B será igual a que la diferencia de la probabilidad de A y B debe tender a cero, o el cociente de la probabilidad de B entre A debe tender a la unidad, luego la similitud entre ambos factores debe ser máxima. El Nivel de Similitud es de hecho una de las formulaciones características de Probabilidad Imposible y que se detallan en el apartado 3 de Introducción a la Probabilidad Imposible.
 
 Las hipótesis empíricas tecnológicas serán aquellas que dada una nueva tecnología, dispositivo o maquinaria, la pone a prueba para la demostración empírica de su grado de fiabilidad, eficacia y eficiencia,  dando unas garantías mínimas de resistencia y seguridad en unas condiciones  dadas.
 
La diferenciación entre los distintos modelos de estudios según finalidad, descriptiva o inferencial, e inferencial, y dentro de la inferencial según las hipótesis sean explicativas o tecnológica, es una cuestión crítica en Introducción a la Probabilidad Imposible por cuanto especifica en diferentes apartados,  la diferencia entre estudios descriptivos o inferenciales está íntimamente ligada a la teoría de la estadística y la probabilidad, y afecta a toda la organización de las ciencias empíricas en general, teoría estadística y de probabilidad sobre cuya síntesis en Introducción a la Probabilidad Imposible se elabora todo un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística, siendo aspectos que se tratan, junto a las relaciones del sesgo y el azar, en el apartado 13, si bien es un tema transversal a lo largo de toda la obra, al afectar directamente a la forma en que entendamos el factor aleatorio de la ciencia.

Ya sea el fin de la investigación la exploración o descripción inicial, o la verificación empírica, explicativa o tecnológica, el método de trabajo del método experimental, independientemente de la finalidad, será la manipulación de unas variables, denominadas independientes, para conocer su efecto o los resultados en las demás variables, dependientes, o en modelos multicausales y multifuncionales, la posibilidad más compleja que una o más variables sean al mismo tiempo dependientes e independientes, en función se manipulen unas otras, en modelos multivariable.
 
Si bien en líneas generales el método de las ciencias, analíticas o sintéticas, es el deductivo, se concreta en las ciencias sintéticas en forma de método hipotético deductivo, una forma particular en que se puede adaptar este método a determinadas ciencias sintéticas que admiten la posibilidad de la intervención directa sobre la realidad misma es mediante el método experimental .
 
La razón por la cual el método experimental se englobaría dentro del método hipotético deductivo es porque aunque se tenga la posibilidad de ser sólo un método con fines simplemente exploratorios o descriptivos, sin afán de inferencia, todo nuevo conocimiento que se adquiera, en la exploración o descripción de lo que sucede, la realidad, forma parte de las premisas sobre las cuales de la síntesis de nuevas informaciones y conocimientos, a las informaciones y conocimientos o esquemas previos, se deducirán las nuevas hipótesis empíricas para futuros estudios inferenciales.
 
La teoría del método experimental hunde sus raíces en la historia, si bien hoy en día la evolución de teoría epistemológica en el siglo XX, y principios del siglo XXI, ha alumbrado nuevas formas ciencia, y un esquema de la ciencia más complejo, más allá de las ciencias empíricas, las ciencias sintéticas, a las que tradicionalmente  se reducía la ciencia, y el único método era el experimental, integrándose hoy en día la teoría de la ciencia a las ciencias analíticas, a las cuales durante muchos periodos de la historia se las ha excluido y relegado de la ciencia al considerarlas artes o humanidades. A medida que ha evolucionado la definición de las matemáticas en tanto que lenguaje, y la lógica, en tanto que un determinado modelo de relaciones, dentro de las ciencias se ha integrado el enorme abanico existente de ciencias, habiendo la posibilidad de diferenciarlas, tal como se propone en Probabilidad Imposible, entre ciencias analíticas y ciencias sintéticas, integrando las ciencias analíticas desde las filologías y el estudio de las lenguas a las matemáticas y la lógica, dándoles el mismo estatus de ciencia que las ciencias sintéticas, las ciencias empíricas, sean naturales o sociales.
 
Sin embargo las nuevas clasificaciones que han surgido de ciencias desde el siglo XX, integrando dentro de las ciencias a determinados ámbitos de conocimiento que hasta no hace mucho se las consideraba simplemente artes o humanidades, nuevas clasificaciones entre las que se encuentra la que se ofrece en Introducción a la Probabilidad Imposible, entre ciencias analíticas o sintéticas, son clasificaciones bastante recientes, en la medida que, hasta hace relativamente bien poco, en la filosofía de la ciencia por ciencias se tenían y consideraban solamente a las ciencias experimentales, considerándose todos aquellos ámbitos de conocimiento que no fuera experimental ámbitos de conocimiento no científico, el arte o las humanidades.
 
En la medida que unas de las cualidades de las ciencias, hasta entrado el siglo XIX, dentro de muchos modelos epistemológicos, especialmente de corte naturalista, era que ciencias eran las ciencias experimentales, es motivo por el cual dentro del positivismo, a fin de igualar el estatus de las ciencias sociales al mismo nivel de las ciencias naturales, Emilie Durkheim al abordar el método de la sociología llega a establecer que el método comparado es a las ciencias sociales lo que el método experimental a las ciencias naturales.  

El estructuralismo de Durkheim es en esencia la forma en que evolucionará el positivismo de Comte en las ciencias sociales a principios del siglo XX,  si bien ya desde mediados del siglo XIX había autores que opinaban que para el establecimiento de las ciencias sociales en tanto que ciencias  no implicaba necesariamente que se ajustasen o igualaran al método experimental, motivo por cual desarrollaron nuevos métodos de análisis científico diferente para las ciencias sociales, ese es el caso del materialismo histórico de Marx y Engels, que propone el estudio científico  de la historia y las relaciones sociales sobre un modelo de investigación diferente, la aplicación de la dialéctica a las relaciones sociales.
 
Posteriormente y a lo largo del siglo XX, y hasta principios del siglo XXI han surgido diferentes escuelas epistemológicas reivindicando diferentes modelos alternativos de ciencia, en donde se engloban desde el materialismo dialéctico, las teorías crítico-sociales, fenomenológicas, y cualitativistas en todas sus formas, si bien, dentro de la obra  Introducción a la Probabilidad Imposible se reivindica una visión de la ciencia racionalmente crítica, basada en la crítica racional de las ideas, en donde se sintetizan los mejores ideales del positivismo,  la necesidad de  ismorfismo, la necesaria identidad idea y realidad, el racionalismo crítico, que dicha identidad  sea suficientemente crítica para ser racional,  la razón crítica,  y la necesidad de comprender la función de la política y la ideología en la ciencia tal como afirma el materialismo dialéctico y los paradigmas crítico-sociales, es la política científica quien decide la razón crítica de la ciencia.  

 Si bien en el  siglo XIX hubo un serio debate sobre si el método científico se reducía a método experimental, motivo por el que se aplica a las ciencias sociales, por ejemplo psicología experimental o pedagogía experimental, y posteriormente el estructuralismo equipara método comparado a método experimental, la forma en que surgen visiones críticas a este reduccionismo sentará las bases para la actual cosmovisión de la ciencia, en donde el método experimental se considera tan solamente un método  particular, entre los muchos  que hay entre las diferentes ciencias. 

El motivo por el cual en el siglo XIX el positivismo reduce el método científico al experimental, y posteriormente el estructuralismo lo extiende al método comparado en ciencias sociales, es porque el método experimental jugó un decisivo papel a lo largo de la historia desde la antigüedad, un papel del método experimental en la ciencia que fue recuperado en el Renacimiento, al volver la cultura europea occidental a la revitalización de la cultura grecolatina, extrayendo lo mejor de la antigüedad clásica,  recuperando la idea grecolatina de ciencia.

 
El método experimental propiamente dicho en la cultura europea occidental será defendido ya a principios de la era moderna, en el primer humanismo europeo, por Roger Bacon, y ya en pleno Renacimiento por Francis Bacon, y sentará las bases de muchos de los grandes descubrimientos que pondrán en tela de juicio todo el conocimiento anterior de la humanidad, y muchas de sus creencias más abigarradas.
 
A partir de entonces el método experimental volverá a tener un papel relevante en la ciencia, especialmente en la obra de Galileo Galilei y Newton y sentarán las bases de la nueva ciencia, sustentada por el método experimental y la observación empírica, al  mismo tiempo que los nuevos desarrollos en ingeniería ponía las bases de la nueva Revolución Industrial en Inglaterra, estableciéndose el método experimental como el principal paradigma de la ciencia, motivo por el cual, a fin de dar a las ciencias sociales el mismo rango de las ciencias naturales, el positivismo aplicaría el método experimental a numerosas ciencias sociales, y posteriormente el estructuralismo, evolución lógica del positivismo, haría la equiparación entre ciencias comparadas y experimentales, si bien ya entonces hubo teorías críticas que ponían de manifiesto la posibilidad de otros métodos diferentes, y la posibilidad de integrar dentro del campo de las ciencias no sólo las ciencias sintéticas, además las analíticas, avanzando hacia una teoría más compleja de la ciencia. 

La forma en que el método experimental será utilizado en la física desde el siglo XIX , por ejemplo en la mecánica cuántica, por ejemplo el archiconocido experimento de doble rendija, serán investigaciones que renueven el enorme valor del método experimental para la ciencia, al mismo tiempo que la epistemología del siglo XX evolucionará de una visión determinista de la ciencia propia de Laplace  a una percepción indeterminista.

A lo largo de los últimos siglos no sólo se ha superado el debate de si el método experimental es el principal método científico frente a los demás métodos particulares , ha habido una transformación cualitativa sustancial en la definición de su objeto de estudio, mientras tradicionalmente, especialmente para el positivismo, su fin principal era el establecimiento de leyes universales de relaciones causa-efecto entre diferentes variables, en donde la variable manipulada, la independiente, era sobre la que se estudiaba sus efectos o resultados en las demás variables dependientes, dentro de una visión nomotética y normativa de la ciencia, propia de la filosofía aristotélica, a medida que ha evolucionado la filosofía, la ciencia, y su historia, la historia de la ciencia, se ha producido un cambio singular en la forma de entender su objeto de estudio, que ha pasado de ser el estudio de relaciones causa-efecto al estudio de correlaciones entre variables, o más concretamente, la cuantificación del nivel de correlación en la interacción diversa entre variables, transformándose los estudios experimentales, y de facto las ciencias experimentales, en verdaderos estudios propios de ciencias estocásticas.
 
Uno de los motivos de esta transformación se debe a la importante comprensión de la relatividad y la incertidumbre en la ciencia, que exige una revisión del modelo de ciencia, hacia la necesidad del establecimiento de márgenes de dudas racionales en los criterios de verificación empírica, la razón crítica en Introducción a la Probabilidad Imposible,  volviendo de nuevo a la necesidad de establecer niveles de escepticismo empírico, dentro de los cuales, las hipótesis que se aceptan posiblemente sean falsas, y todo lo que se estudia o se cree cierto ser sólo a consecuencia pura y directa del azar en la sucesión aleatoria de fenómenos y hechos en una realidad, de la cual sólo conocemos una parte, lo que muestra de sí, la muestra.
 
Las ciencias estocásticas englobarían tanto a las ciencias experimentales y comparadas, y todas aquellas que ciencias que dentro de su  entendimiento de lo que sucede, la realidad, entienden que lo que observamos es una sucesión continuada de fenómenos de los cuales no podemos decir absolutamente nada, salvo lo que está en nuestro margen de error, luego posiblemente falso, y se acepta que la realidad en sí misma sea posiblemente producto de la interacción directa de accidentes y contingentes, en la cual posiblemente halla que incluir la propia intervención o participación humana, en tanto que la propia observación en sí transforma lo que sucede, impidiendo una observación aséptica. Hechos y fenómenos, accidentes y contingentes, que dan forma a lo que ocurre y  observamos, si bien, en las ciencias experimentales, partimos de la hipótesis a priori, premisa o prejuicio, que tienen por causa directa la forma en que intervengamos o participemos en lo que ocurra.
 
Rubén García Pedraza, Madrid a 28 de julio del 2013
 
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

 
 

 

sábado, 20 de julio de 2013

Gnoseología, la teoría del conocimiento

Gnoseología es un término que la epistemología se relaciona al conocimiento humano, en general cuando se menciona la forma gnoseológica de acceso al conocimiento, se habla de las vías por las cuales el ser humano aprehende la realidad.

Dentro de la estadística y la probabilidad dependiendo de nuestra teoría del conocimiento entenderemos de una u otra forma el contraste de hipótesis, que es en esencia, en la obra Introducción a la Probabilidad Imposible, un proceso de crítica racional de las ideas, base para la elaboración de toda una teoría epistemológica sobre las ciencias sintéticas o empíricas, sean  naturales o sociales.

El conocimiento, desde el punto de vista de Probabilidad Imposible, se puede definir como el proceso o producto de la conciencia de la realidad, proceso por cuanto la concienciación implica un proceso de asimilación de datos, nuevas informaciones, para la formación de nuevas ideas de la realidad, o de ser nuevas informaciones sobre esquemas previos o ideas previas, nuevas informaciones que después integra en los esquemas previos o ideas previas, producto por cuanto el resultado final será una cosmovisión de la realidad, en esencia, la teoría cosmológica de la realidad que prefigure la epistemológica depende directamente de su teoría gnoseológica.

Ese proceso inicial de asimilación de nuevas informaciones puede ser producto de la aprehensión de nuevos datos derivados de la experiencia directa, o la aprehensión de nuevos datos derivados de la interacción social, la mediación social. En cualquier caso, sean los nuevos datos, la información, producto de la experiencia directa o la mediación social, en cualquier caso toda la información es recibida por los órganos sensoriales, que transforman los datos en señales electroquímicas, que serán procesadas en el cerebro y transformadas en ideas, de modo que las nuevas informaciones pueden transformarse en nuevas ideas, o pueden ser nuevas informaciones sobre ideas previas o esquemas previos, que en tal caso serían ideas previas o esquemas previos modificados por las nuevas informaciones.

Si las nuevas ideas, o las ideas previas modificadas por nuevas informaciones, tienen  pretensión de objetividad científica, deberán constituirse en hipótesis empírica, es decir, deberán formalizarse en un enunciado empírico susceptible de criticarse estadísticamente. Dicho enunciado empírico para formularse de forma clara y distinta debe tener por tanto dos características, debe ser un enunciado empírico que tenga coherencia lingüística interna, y debe formularse de modo que pueda criticarse empíricamente a través del contraste de hipótesis, la crítica racional a la idea empírica.

En Probabilidad Imposible se parte de la hipótesis que toda hipótesis empírica es empírica por cuanto es producto empírico de la síntesis electroquímica de las ideas, y toda idea empírica por ser empírica no es a priori fiable, dado que todo producto empírico de la realidad es una apariencia o forma fenomenológica de la que, de haber algo de verdad, debe ser a la luz de la crítica racional de las ideas, la razón crítica.

Una razón crítica que será verdaderamente crítica en tanto en cuanto los criterios racionales de la política científica para el establecimiento del margen de error sean suficientemente fiables

De esta manera, en tanto que toda idea debe someterse a la razón crítica, Probabilidad Imposible entiende la vigencia del racionalismo crítico en la ciencia actual, de la misma forma que al igual que el positivismo entendía la necesidad de equiparar el método científico en ciencias sociales y naturales, ese método de estudio debe fundarse en una razón crítica que sobre datos positivos, hechos empíricos, demuestre la suficiencia racional de la hipótesis, una razón crítica que en definitiva será una razón política en la medida que el establecimiento de la razón crítica dependa de la política científica, tal como el materialismo dialéctico y las teorías crítico-sociales defienden que toda ciencia es una ciencia para el desarrollo de una determinada política, una política que sólo será ética y moral si tiene por objeto el desarrollo de  la igualdad y la libertad humana.

Cosmología, epistemología y gnoseología, son tres modelos de teorías donde la piedra angular, que establece los presupuestos de las relaciones idea y realidad, es la teoría gnoseológica o teoría del conocimiento, estableciendo el grado de identidad entre ambas variables, entendiendo que las ideas y la realidad son variables por cuanto nunca permanecen constantes, nuestra idea de realidad y la realidad misma cambian sistemáticamente conforme accedemos a nuevas informaciones.

A lo largo de la historia de la filosofía ha habido diferentes interpretaciones sobre este proceso, precisamente en el apartado 2 de Introducción a la Probabilidad Imposible se hace una breve síntesis sobre la evolución del concepto de idea en la historia de la filosofía, dado que será sobre la crítica racional de las ideas sobre lo que posteriormente se hace el contraste de hipótesis, siendo la forma de entender la identidad idea y realidad un elemento central en la teoría de la ciencia.

Las principales escuelas filosóficas en este sentido han sido el idealismo, el empirismo, el racionalismo, el racionalismo crítico, el idealismo dialéctico, el positivismo y el materialismo dialéctico.

Lo que en filosofía de la ciencia y en epistemología tradicionalmente se ha llamado teoría del conocimiento o teoría gnoseológica, la forma en que accedemos a la información de la realidad, en la psicología se ha estudiado desde la teoría del aprendizaje, que en síntesis lo que hacen es emular a las principales corrientes epistemológicas adaptándolas a sus campos de estudios particulares.

 A lo largo del siglo XX las principales teorías del aprendizaje han sido el conductismo, la adaptación del empirismo clásico a la psicología, el cognitivismo, basada en el racionalismo o el racionalismo crítico, y las teorías crítico-sociales, modelos criticistas, fenomenológicos, o materialistas dialécticos, que fundan el conocimiento humano en la interacción o mediación social.

Es importante el paralelismo entre teorías gnoseológicas y del aprendizaje por cuanto una de las vías de investigación en Inteligencia Artificial de Probabilidad Imposible ha sido la posibilidad de replicación de la inteligencia humana en Inteligencia Artificial, tal como aborda en el apartado 23 de Introducción a la Probabilidad Imposible. Esta vía de investigación la inicie en el invierno del 2003 donde ya proponía la vinculación de la toma de decisiones artificial a un proceso artificial de aprendizaje, adaptando la teoría de Piaget, sobre asimilación y acomodación en el proceso de aprendizaje.

Hoy en día si publicara las obras, aun inéditas, del 2003 haría profundas modificaciones, en cualquier caso el apartado 23 de Introducción a la Probabilidad Imposible es una buena muestra cuales serían las líneas de investigación en Inteligencia Artificial.

La teoría del conocimiento o teoría gnoseológica de referencia no sólo determina la forma en que entendamos la  epistemología y la cosmología, también determinará la investigación tecnológica, especialmente en la posibilidad de la replicación de la enorme complejidad de la inteligencia humana en Inteligencia Artificial. En síntesis, es de la teoría gnoseológica de la política científica de lo que dependerá en buena medida el progreso de las ciencias, y en definitiva el progreso humano y social.

Rubén García Pedraza, Madrid 20 de julio del 2013
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

 
 

sábado, 6 de julio de 2013

Ciencias estocásticas


Ciencias estocásticas son aquellas que comprenden la función indeterminista del azar en la ciencia, luego en lugar de seguir patrones causales puros desarrollan modelos correlaciónales, donde las relaciones entre factores no se determinan a priori por cadenas causales predeterminadas de forma fija y constante, más bien estudian el nivel de probabilidad en las interacciones utilizando para tal fin métodos de probabilidad estadística o de estadística de la probabilidad, el tipo de modelos de investigación en que se centra la teoría de Probabilidad Imposible.

Estadística y probabilidad son las dos principales ciencias y métodos para el estudio indeterminista y estocástico del comportamiento aleatorio, o correlaciones entre diferentes factores que de forma absoluta o en alguna medida sean dependientes del azar, en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística se presentan nuevos métodos de estudio empírico de las ciencias estocásticas, y se distinguen dos tipos de azar, el azar teórico, que desarrolla la función de inversión de N, 1/N, en tanto que media aritmética de las probabilidades empíricas, y probabilidad teórica de que cualquier suceso ocurra en igualdad de oportunidades,  azar teórico, y el azar empírico es una función de la Desviación Media o Típica en tanto que distribución empírica del sesgo por azar en la muestra. Si bien a lo largo de Introducción a la Probabilidad Imposible se da una visión heterodoxa sobre el azar,  particularmente interesante el apartado 13,

Dentro de las ciencias estocásticas hay que diferenciar, su base metodológica, que se estudia en las disciplinas matemáticas de probabilidad y estadística, en tanto que ciencias analíticas de aplicación sintética, y las ciencias sintéticas propiamente dichas, las ciencias empíricas, naturales o sociales, donde los métodos analíticos de estadística y probabilidad se aplican indistintamente, diferenciándose sólo en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, si son modelos normales o modelos omega, y dentro de los modelos normales, si el objeto de estudio es  igualdad de oportunidades o sesgo, positivo o negativo, modelos y objetos de estudio que se detallan ampliamente en el apartado 10.

La diferencia entre ciencias exactas y ciencias estocásticas, es que mientras en las exactas los resultados no son aproximaciones que admitan el azar en sus proposiciones, y mucho menos un margen de error, ajustan al detalle  sus cálculos a las dimensiones reales, la exactitud se entiende en tanto que máxima precisión, en ciencias estocásticas  se entiende la función del azar en los fenómenos que explica , dejando márgenes de error en sus estimaciones, comprendiendo que cualquier aproximación teórica de la realidad parte del dualismo entre realidad y teoría, y si bien el isomorfismo es un ideal de ciencia fiable, dicho isomorfismo nunca se logra al 100%, motivo por el cual siempre hay un margen de error es sus estimaciones y proposiciones.

Las ciencias estocásticas en tanto que a priori parten de la aceptación de márgenes de azar y márgenes de error, entienden que el isomorfismo, si bien es un ideal de ciencia, una ciencia moral sería aquella que sólo emitiera proposiciones verdaderas, en el momento que se acepta la función del azar y el error, cualquier proposición empírica de verdad está sujeta a la provisionalidad de sus afirmaciones, motivo por el cual las hipótesis empíricas sólo se validan verdaderamente racionales, universales, provisionalmente, de acuerdo a los márgenes de error que acepte la política científica en la razón crítica. A este proceso, en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se denomina crítica racional de las ideas, en tanto que las ideas, de origen subjetivo, es necesario que se validen en la práctica suficientemente objetivas para formar parte del cuerpo teórico de la ciencia, es lo que tradicionalmente se llama contraste de hipótesis.

A medida que avanza la comprensión del azar y el error  en la ciencia  ha aumentado la valoración académica y social de las ciencias estocásticas. Si la principal diferencia entre ciencias exactas y estocásticas es la capacidad de precisión o exactitud en sus estimaciones, en tanto la aceptación del error y el azar es un factor de imprecisión e inexactitud que implica una relativa menor fiabilidad, si tradicionalmente a las ciencias exactas se las tenía por paradigma de fiabilidad y pureza, lo que ha venido sucediendo en la epistemología del siglo XX ha sido una revalorización de las ciencias estocásticas, teniendo hoy en día el mismo prestigio que las ciencias exactas, de hecho hoy en día, se podría decir que muchas ciencias que en el siglo XIX, a causa del primer positivismo y estructuralismo, se tenían por modelos de ciencias exactas, por ejemplo la física de Newton y la astronomía de Kepler, hoy en día la mecánica quántica se revela como una de las ciencias estocásticas más importantes, y las actuales teorías de astrofísica, que admiten importantes márgenes de error de hasta millones de años luz en algunas teorías, demuestra que más que una ciencia exacta altamente precisa, es una ciencia estocástica que depende del contraste de hipótesis, y la aceptación de márgenes de error en la crítica racional de las ideas.

Hoy en día se podría decir, que en su función analítica, el principal modelo de ciencia exacta son las matemáticas, en la medida que cualquier algoritmo, en su sentido puro, carece de error, es decir, el algoritmo “1+1=2” es un algoritmo o estructura lingüística que carece de error posible. Las matemáticas en tanto que lenguaje se diferencian de las demás lenguas simbólicas por cuanto sus proposiciones disponen de una única significación incontrovertible, es un modelo de lenguaje que no admite valoración subjetiva.

Muy posiblemente de todas las ciencias exactas que se tenían por exactas en el siglo XIX la única ciencia exacta verdadera sea las matemáticas.

En el siglo XX se ha producido una transformación sin precedentes en la epistemología en donde ciencias como la física o la astronomía, que el primer positivismo tuvo por modelos de ciencia, se han transformado en modelos de ciencias estocásticas, donde sus afirmaciones quedan sujetas a una relativa incertidumbre, y a un contraste de hipótesis dominado por el falsacionismo, variante del racionalismo crítico, elaborada por Karl Popper, que rechaza la posibilidad de verdades eternas y universales más allá de un tiempo provisional o prudencial, el suficiente para admitir la falsedad de las hipótesis tenidas por verdaderas.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, tal como se explica en el apartado 2, se recoge las principales aportaciones del racionalismo crítico, el positivismo y el materialismo dialéctico. La influencia del racionalismo crítico se observa en la medida que  entiende que ninguna verdad es eterna, por cuanto la aceptación de un margen de error posible implica que en un tiempo suficiente o infinito es inevitable, al mismo tiempo que, si bien de forma adaptada a la nueva realidad epistemológica se insiste en la necesidad de dar el mismo tratamiento epistemológico, el método científico hipotético deductivo, a todas las ciencias, naturales o sociales, una característica propia del positivismo, pero de forma adaptada a las circunstancias actuales, entendiendo la función del azar y el error en la ciencia, una ciencia que dispone de una dimensión política, de acuerdo a las teorías crítico-sociales derivadas del materialismo dialéctico, por cuanto es la política científica quien decide la orientación política e ideológica de la ciencia.

En Probabilidad Imposible se entiende la función del error en dos formas, un primer margen de error en la teoría en la medida que la realidad en sí misma es incognoscible, debido a que está formada por una infinitud de cualidades singulares que escapan a la comprensión humana, por cuanto el ser humano dispone de capacidades humanas limitadas frente la infinitud de cualidades que forman la realidad en si, siendo esa contradicción entre la limitación humana y la infinitud de la realidad el origen de error, por cuanto, a expensas de poder conocerlo todo sólo se conoce una parte, lo que la realidad muestra de sí, siendo la diferencia entre muestra y realidad, la probabilidad de error de representatividad muestral.


Además del margen de error de representatividad muestral el segundo margen de error, el que se establece en la razón crítica por la política científica para el contraste de hipótesis.

La forma en que la obra Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, entiende el azar es en tanto que la realidad en sí misma es una entidad aleatoria, que no obedece a secuencias líneas de causa y efecto, siendo un sistema no lineal de interacciones caóticas, en donde al azar se generan series de accidentes y contingencias, de las cuales, por simple azar, se generan patrones de regularidad fiable, al menos en un margen de error, que dan lugar a los sistemas que forman la realidad fenoménica.

Lo que creemos sistemas estables, la vida orgánica, los ecosistemas, los sistemas planetarios, las galaxias, el universo, o los multi-universos, son en esencia productos casuales de accidentes que se han producido en el devenir caótico de la materia, en donde algo aparentemente imposible, por ejemplo, que la materia inerte por casualidad genere vida, dado un tiempo suficiente o infinito, es inevitable, por ejemplo en nuestro planeta, transformándose lo imposible en algo normal, tal como se explica en el apartado 13 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

Mientras la cosmología tradicional partía de postulados deterministas, al estilo de la teoría de la probabilidad de Laplace, en donde todo podría ser perfectamente predecible y explicado de forma exacta y precisa, las ciencias sintéticas desde el siglo XX han evolucionado hacia una interpretación de la realidad cada vez menos deterministas, a expensas de la famosa frase de Einstein de que “Dios no juega a los dados” lo que las ciencias empíricas, naturales o sociales, están demostrando es que la incidencia del azar en la realidad es muy elevada, y fenómenos que hasta hace poco se explicaban por sistemas causales fijos e inmutables ahora se empiezan a vislumbrar explicaciones no lineales e indeterministas derivados de interacciones en donde se observa un determinado margen de azar.

Si la física de Newton se transformó en un ideal de ciencia para los filósofos ilustrados y románticos, la posibilidad de una ciencia fundada en leyes naturales y eternas, su influencia se observa desde la filosofía racionalista e idealista de Kant y Hegel, el positivismo de Comte, o el materialismo dialéctico de Marx y Hegel, que independientemente de su ideología, apuntaban a una ciencia fundada en leyes universales, en el espacio y el tiempo, que regían la historia social  y humana. La forma en que desde el siglo XX han evolucionado las ciencias sintéticas ha sido diametralmente opuesta, hacia una comprensión no lineal de la naturaleza y la sociedad en donde de haber leyes son provisionales, y toda hipótesis debe criticarse racionalmente y contrastarse con la realidad. Si bien, muchos postulados de aquellas filosofías siguen vigentes, la incoherencia o incompletitud de cualquier conocimiento humano frente a una realidad incognoscible, la necesidad del mismo tratamiento metodológico a todas las ciencias empíricas, naturales o sociales, el método científico, hipotético deductivo, y la naturaleza dialéctica del ser humano y la realidad  donde todas  las proposiciones humanas, incluidas las científicas, en tanto que el ser humano es un animal político y un ser social, lógicamente tienen una dimensión política y social.

 
Rubén García Pedraza, Madrid 8 de junio del 2014
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/