Tutoriales Android y mucho más para tus trabajos y tareas de la Escuela!

Breaking

miércoles, 7 de octubre de 2020

octubre 07, 2020

Interpretaciones de la mecánica cuántica

 Una interpretación de la mecánica cuántica es un conjunto de afirmaciones que tratan sobre la completitud, determinismo o modo en que deben entenderse los resultados de la mecánica cuántica y los experimentos relacionados con ellas. Aunque las predicciones básicas de la mecánica cuántica han sido confirmadas extensivamente por experimentos muy precisos, algunos científicos consideran que algunos aspectos del entendimiento que ésta proporciona son insatisfactorios y requieren explicaciones o interpretaciones adicionales que permitan un reconocimiento más cercano a la intuición de los resultados de los experimentos.


Los problemas sobre cómo deben entenderse ciertos aspectos de la mecánica cuántica son tan agudos que existen una serie de escuelas alternativas, que difieren por ejemplo en cuanto a si la teoría es subyacentemente determinista, o si algunos elementos tienen o no realidad objetiva, o si la teoría proporciona una descripción completa de un sistema físico.


El problema de la medida

El gran problema lo constituye el proceso de medición. En la física clásica, medir significa revelar o poner de manifiesto propiedades que estaban en el sistema desde antes de que midamos.

En mecánica cuántica el proceso de medición altera de forma incontrolada la evolución del sistema. Constituye un error pensar dentro del marco de la física cuántica que medir es revelar propiedades que estaban en el sistema con anterioridad. La información que nos proporciona la función de onda es la distribución de probabilidades, con la cual se podrá medir tal valor de tal cantidad. Cuando medimos ponemos en marcha un proceso que es indeterminable a priori, lo que algunos denominan azar, ya que habrá distintas probabilidades de medir distintos resultados. Esta idea fue y es aún objeto de controversias y disputas entre los físicos, filósofos y epistemólogos. Uno de los grandes objetores de esta interpretación fue Albert Einstein, quien a propósito de esta idea dijo su famosa frase "Dios no juega a los dados".

Independientemente de los problemas de interpretación, la mecánica cuántica ha podido explicar esencialmente todo el mundo microscópico y ha hecho predicciones que han sido probadas experimentalmente de forma exitosa, por lo que es una teoría unánimemente aceptada.

Formulación del problema

El problema de la medida se puede describir informalmente del siguiente modo:

  1. De acuerdo con la mecánica cuántica un sistema físico, ya sea un conjunto de electrones orbitando en un átomo, queda descrito por una función de onda. Dicha función de onda es un objeto matemático que supuestamente describe la máxima información posible que contiene un estado puro.
  2. Si nadie externo al sistema ni dentro de él observara o tratara de ver cómo está el sistema, la mecánica cuántica nos diría que el estado del sistema evoluciona de manera determinista dada por la ecuación de Schrödinger. Es decir, que podría ser perfectamente predecible hacia donde irá el sistema.
  3. La función de onda nos informa de cuáles son los resultados posibles de una medida y sus probabilidades relativas, pero no nos dice qué resultado concreto se obtendrá si un observador trata efectivamente de medir el sistema o averiguar algo sobre él. De hecho, la medida sobre un sistema es un valor impredecible de entre los resultados posibles.

Eso plantea un problema serio, si las personas, los científicos u observadores son también objetos físicos como cualquier otro, debería haber alguna forma determinista de predecir cómo tras juntar el sistema en estudio con el aparato de medida, finalmente llegamos a un resultado determinista. Pero el postulado de que "una medición destruye la coherencia de un estado inobservado e inevitablemente tras la medida se queda en un estado mezcla impredecible", parece que sólo nos deja 3 salidas:

  • A) O bien pasamos a entender el proceso de decoherencia por lo cual un sistema pasa de tener un estado puro que evoluciona predeciblemente a tener un estado mezcla o impredecible (ver teoría del caos).
  • B) O bien admitimos que existen unos objetos no-físicos llamados "conciencia" que no están sujetos a las leyes de la mecánica cuántica y que nos resuelven el problema.
  • C) O tratamos de inventar cualquier hipótesis exótica que nos haga compatibilizar como por un lado deberíamos estar observando tras una medida un estado no fijado por el estado inicial y por otro lado que el estado del universo en su conjunto evoluciona de forma determinista.

El enunciado anterior, "una medición destruye la coherencia de un estado inobservado e inevitablemente tras la medida se queda en un estado mezcla impredecible, parece que sólo nos deja 3 salidas", es demasiado arriesgado y no probado. Si partimos de que las entidades fundamentales que constituyen la materia, precisamente, y al contrario de lo que deduce (B) no tienen consciencia de sí mismas, y sin preferencia alguna por el determinismo o el caos absoluto, sólo pueden encontrar el equilibrio comportándose según leyes de probabilidad o lo que es lo mismo por leyes de "caos determinado". En la práctica cualquier defensa o negación de la teoría cuántica no responde a razonamientos matemáticos deductivos sino a impresiones o sugestiones con origen en axiomas filosóficos totalmente arbitrarios. Cabe notar que p.ej, la palabra "equilibrio" en este párrafo puede o no tener sentido y el valor de realidad que se conceda al mismo no está sujeto a demostración matemática alguna.

Interpretaciones

Comúnmente existen diversas interpretaciones de la mecánica cuántica, cada una de las cuales en general afronta el problema de la medida de manera diferente. De hecho si el problema de la medida estuviera totalmente resuelto no existirían algunas de las interpretaciones rivales. En cierto modo la existencia de diferentes interpretaciones refleja que no existe un consenso sobre cómo plantear precisamente el problema de la medida. Algunas de las interpretaciones más ampliamente conocidas son las siguientes:

  • Interpretación estadística, en la que se supone un estado cuántico describe una regularidad estadística, siendo explicables los diferentes resultados de la medida de un observable atribuibles a factores estocásticos o fluctuaciones debidas al entorno y no observables. La electrodinámica estadística es una teoría de los electrones en que el comportamiento cuántico, aparentemente aleatorio, de los electrones de un sistema es atribuible a las fluctuaciones del campo electromagnético debido al resto de electrones del universo.
  • Interpretación de Copenhague, es la interpretación tradicional de la mecánica cuántica, universalmente aceptada en sus inicios al respaldarse en principios comprobados, a la que se han adherido la mayoría de manuales de mecánica cuántica tradicionalmente. Debida inicialmente a Niels Bohr y el grupo de físicos que trabajaba con él en Copenhague hacia 1927. Se asume el principio de incertidumbre y el principio de complementariedad de las descripciones ondulatoria y corpuscular.
  • Interpretación participatoria del principio antrópico.
  • Interpretación de historias consistentes.
  • Teorías de colapso objetivo. De acuerdo con estas teorías, la superposiciones de estados se destruyen aunque no se produzca observación, difiriendo las teorías en qué magnitud física es la que provoca la destrucción (tiempo, gravitación, temperatura, términos no lineales en el operador de evolución...). Esa destrucción es lo que evita las ramas que aparecen en la teoría de los multi-universos o universos paralelos. La palabra "objetivo" procede de que en esta interpretación tanto la función de onda como el colapso de la misma son "reales", en el sentido ontológico.En la interpretación de los muchos-mundos, el colapso no es objetivo, y en la de Copenhague es una hipótesis ad-hoc.
  • Interpretación de los universos paralelos. De acuerdo a esta hipótesis, tras una medida todos los resultados posibles se realizan de alguna manera, aunque un observador concreto sólo observa uno de los resultados (los otros resultados se producirían en réplicas de nuestro universo, que no interacción con el universo percibido del primer observador).
  • Interpretación de Bohm, es una interpretación que prescinde del principio de localidad y postula un modelo de variables ocultas en la que la aleatoriedad aparente se debe al valor desconocido de dichas variables ocultas. De acuerdo con Bohm si se conociera el valor de las variables ocultas el resultado sería completamente determinista.
Interpretaciones de la Mecánica cuántica
InterpretaciónAutor(es)¿Determinista?¿Función de onda real?¿Historia única?¿Variables ocultas?¿Colapso de la función de onda?¿Rol del observador?
Mecánica estocásticaEdward Nelson, 1966NoNoNoNoNinguno
Interpretación estadísticaMax Born, 1926Sin respuestaNoIndefinidoNoNinguno
Interpretación de CopenhagueNiels BohrWerner Heisenberg, 1927NoNoNoSin respuestaSin respuesta
Interpretación de los universos paralelosHugh Everett, 1957NoNoNoNinguno
Interpretación de las muchas mentesH. Dieter Zeh, 1970NoNoNoInterpretativa1
Historias consistentesRobert B. Griffiths, 1984Indefinido2Indefinido2NoNoNoInterpretativa3
Lógica cuánticaGarrett Birkhoff, 1936IndefinidoIndefinidoSi4NoNoInterpretativa3
Interpretación de BohmLouis de Broglie, 1927
David Bohm, 1952
56NoNinguno
Interpretación transaccionalJohn G. Cramer, 1986NoNo7Ninguno
Mecánica cuántica relacionalCarlo Rovelli, 1994IndefinidoNoIndefinido8No9Intrínseco
Interpretación de von Neumannvon Neumann, 1932, WheelerWignerNoNoCausal
Teorías de colapso objetivoGhirardi-Rimini-Weber, 1986NoNoNinguno
octubre 07, 2020

Filosofía de la física térmica y estadística

La filosofía de física térmica y estadística es la parte de la filosofía de la física encargada de la interpretación de los postulados de la termodinámica clásica, mecánica estadística y otras teorías relacionadas. Sus enfoques centrales incluyen el estudio de la entropía, y su relación con la segunda ley de la termodinámica. Estudia también la interdependencia entre la mecánica estadística con un posible elemento de irreversibilidad del tiempo y la teórica relación entre la mecánica estadística y la flecha del tiempo. Muchas de estas reflexiones se centran en el segundo principio de la termodinámica y experimentos mentales como el demonio de Maxwell y el trinquete de Feynman (o trinquete browniano).

Figura esquemática del demonio de Maxwell, una posible violación del segundo principio de la termodinámica.

Termodinámica
La termodinámica estudia el comportamiento macroscópico de sistemas físicos determinados bajo la influencia del intercambio de trabajo y calor con otros sistemas o con su entorno. La termodinámica y la mecánica estadística tienen variantes comunes lo cual es importante porque plantea cuestiones filosóficas sobre cómo se utiliza el método postulatorio en la ciencia y como deben ser interpretados dichos datos postulatorios.

En el corazón de la termodinámica contemporánea está la idea del equilibrio termodinámico, un estado en que las propiedades no macroscópicas del sistema cambian con el tiempo. En versiones ortodoxas de la termodinámica, ciertas propiedades como temperatura y entropía están definidas solo por estados de equilibrio. La idea de la existencia de estados de equilibrio termodinámico ha sido la idea fundamental (aun cuando tácitos) de la termodinámica. Recientemente se le ha denominado "la primera ley de termodinámica negativa".1​2​

Leyes de la termodinámica
Artículo principal: Principios de la termodinámica
La termodinámica a menudo ha sido descrita como una "teoría de principio", en la que unas cuantas generalizaciones empíricas son menospreciadas, y de estos se deduce el resto de la teoría. Según esta perspectiva, hay una correspondencia fuerte entre tres hechos empíricos y las primeras tres leyes de termodinámica. Existe una cuarta ley de reciprocidad.

Filosofía de la ley cero
Artículo principal: Principio cero de la termodinámica
En la física, es un hecho empírico que, si un sistema A esta en equilibrio térmico con el sistema B, y el sistema B esta en equilibrio térmico con el sistema C, entonces el sistema A y el sistema C esta también en equilibrio térmico. Por ello, el equilibrio térmico entre sistemas es una relación de equivalencia, y ello es el fundamento de la ley cero de la termodinámica. Según Max Planck, quién escribió un libro de texto influyente sobre termodinámica, y muchos otros autores, este principio es empírico del que se puede deducir que la "función temperatura" es la base del concepto cotidiano de calor.

Filosóficamente, la interpretación mecánica del principio cero de la termodinámica produce resultados inconclusos o, en el mejor de los casos, equilibrios aproximados.3​ En la teoría de Carathéodory (1909), se postula que existen sistemas "permeables sólo al calor", aunque el calor no está explícitamente definido.4​ Este postulado es un postulado físico existencial. No obstante, no aclara si solo hay un tipo de calor. Este pensamiento establece como condición que siempre que cada uno de los sistemas S1 y S2 alcancen al equilibrio independientemente con un tercer sistema S3 en condiciones idénticas, los sistemas S1 y S2 están en equilibrio mutuo. Es la función de esta afirmación la que proporciona no sólo la existencia de transferencia de energía que no sea por trabajo o transferencia de materia, sino también para proveer que tal transferencia sea única en la sentido que sólo hay un tipo de sistema, y un tipo de susodicha transferencia.

Filosofía de la Primera ley
Artículo principal: Primer principio de la termodinámica
La Primera Ley de la aclara que el nivel de energía interno de un sistema aislado es constante. En el contexto de un sistema no aislado, esta ley postula que cuando hay un cambio de energía en la transición de un estado de equilibrio a otro, dicho cambio es equivalente a la transferencia de calor al sistema menos el trabajo hecho por el sistema. Por ello, la energía absorbida menos la energía perdida es igual al cambio de energía y la energía no puede ser creada ni destruida.

La versión clásica de la Primera Ley como se muestra arriba debe ser modificada: la energía total del universo, incluyendo el equivalente de energía de todos los bariones, bosones, y leptones en el universo, es constante en el tiempo. Basado en ello, aun si el universo tuviese una densidad de energía neta nula, es una observación empírica, no una restricción impuesta por la primera ley de la termodinámica.

Otros principios físicos de la Primera Ley:

Equivalencia entre masa y energía que es consecuencia de la relatividad especial (resumido para partículas en descanso por la ecuación E=mc^2.);
Modelo estándar de física de partículas;
Aparición espontánea de partículas elementales fuera del vacío ([vacuum vacuum]), como es explicado por la teoría cuántica, y la decadencia igualmente espontánea de partículas aisladas y la cancelación mutua de partículas y anti-partículas
Filosofía de la Segunda ley de la termodinámica
Artículo principal: Segundo principio de la termodinámica
La Segunda Ley de la Termodinámica dice que las diferencias de temperatura entre sistemas en contacto el uno con el otro tienden a igualarse, pero la pérdida de calor ocurre en la forma de entropía.5​ Esta ley sigue solo estadísticas porque filosóficamente, todos los sistemas físicos están sujetos a poder obtener energía del movimiento térmico de los átomos que lo componen, entonces el sistema ocupará "estados termodinámicos" nuevos en proporciones iguales a las previamente existentes.

Hay varias interpretaciones que tienden, en principio, a contradecir la Segunda Ley, una siendo el teorema H de Boltzmann.6​ De hecho, varios sistemas han sido postulados que violarían la segunda ley basado en este mismo concepto, por lo que la segunda ley se define de muchas y variadas formas, algunas de las cuales, poco o nada tienen que ver las unas con las otras.7​ No todas las definiciones de la segunda ley hacen referencia a la entropía, y en muchas de ellas, la entropía no se puede matemáticamente establecer en la definición. Y, el que la naturaleza siempre esté en continuo cambio, coincide con enunciados filosóficos incluyendo el tercer principio Hermético y varios principios místicos y cabalísticos.

El demonio de Maxwell
Artículo principal: Demonio de Maxwell
James Clerk Maxwell, en un ensayo titulado la "Teoría de Calor," propuso un experimento mental demostrando por qué la Segunda Ley puede ser una condición provisional, por qué la entropía podría ser vencible. Este experimento fue denominada el Demonio de Maxwell.

"Si concebimos un ser cuyas facultades son tan agudizadas que pueda seguir cada molécula en su curso, este ser, cuyos atributos son todavía esencialmente finitos como los nuestros, sería capaz de hacer lo qué actualmente es imposible para nosotros," (J. C. Maxwell)
Posteriormente explicó que el demonio que trabaja a nivel microscópico, podría operar un muro (presumiblemente de construcción de fricción baja) dejando moléculas veloces únicas pasar a través de él. De este modo, el trabajo del demonio resultaría en moléculas lentas (i.e. fríos) en un lado del muro, y las calientes por otro lado. Aun así movimiento de uniformidad de temperatura a una ruptura de frío/caliente viola la Segunda Ley.

En el siglo XX, avances en la Teoría de la información y la termodinámica finalmente mostraron cómo el demonio proverbial está midiendo y manipulando las actividades necesariamente incrementando la entropía total por más de sus acciones disminuyendo la entropía del sistema gaseoso cerrado. Por ello el demonio del maxwell no pudo disminuir la entropía total en el principio, y la excepción de la segunda ley propuesta por Maxwell sigue refutada.

octubre 07, 2020

Filosofía de la ciencia

 La filosofía de la ciencia es la rama de la filosofía que investiga el conocimiento científico y la práctica científica. Se ocupa de saber, entre otras cosas, cómo se desarrollan, evalúan y cambian las teorías científicas, y de saber si la ciencia es capaz de revelar la verdad de las «entidades ocultas» (o sea, no observables) y los procesos de la naturaleza. Son filosóficas las diversas proposiciones básicas que permiten construir la ciencia. Por ejemplo:


Existe de manera independiente de la mente humana (tesis ontológica de realismo)

La naturaleza es regular, al menos en alguna medida (tesis ontológica de legalidad)

El ser humano es capaz de comprender la naturaleza (tesis gnoseológica de inteligibilidad)

tomar conciencia de su propia forma de pensar sobre sí misma

Si bien estos supuestos metafísicos no son cuestionados por el realismo científico, muchos han planteado serias sospechas respecto del segundo de ellos1​ y numerosos filósofos han puesto en tela de juicio alguno de ellos o los tres.2​ De hecho, las principales sospechas con respecto a la validez de estos supuestos metafísicos son parte de la base para distinguir las diferentes corrientes epistemológicas históricas y actuales. De tal modo, aunque en términos generales el empirismo lógico defiende el segundo principio, opone reparos al tercero y asume una posición fenomenista, es decir, admite que el hombre puede comprender la naturaleza siempre que por naturaleza se entienda "los fenómenos" (el producto de la experiencia humana) y no la propia realidad.


En pocas palabras, lo que intenta la filosofía de la ciencia es explicar problemas tales como:


Naturaleza y la obtención de las ideas científicas (conceptos, hipótesis, modelos, teorías, paradigma, etc.)

Relación de cada una de ellas con la realidad

Cómo la ciencia describe, explica, predice y contribuye al control de la naturaleza (esto último en conjunto con la filosofía de la tecnología)

Formulación y uso del método científico

Tipos de razonamiento utilizados para llegar a conclusiones

Implicaciones de los diferentes métodos y modelos de ciencia

La filosofía de la ciencia comparte algunos problemas con la gnoseología —la teoría del conocimiento— que se ocupa de los límites y condiciones de posibilidad de todo conocimiento. Pero, a diferencia de ésta, la filosofía de la ciencia restringe su campo de investigación a los problemas que plantea el conocimiento científico; el cual, tradicionalmente, se distingue de otros tipos de conocimiento, como el ético o estético, o las tradiciones culturales.


Algunos científicos han mostrado un vivo interés por la filosofía de la ciencia y algunos como Galileo Galilei, Isaac Newton y Albert Einstein, han hecho importantes contribuciones. Numerosos científicos, sin embargo, se han dado por satisfechos dejando la filosofía de la ciencia a los filósofos y han preferido seguir haciendo ciencia en vez de dedicar más tiempo a considerar cómo se hace la ciencia. Dentro de la tradición occidental, entre las figuras más importantes anteriores al siglo XX destacan entre muchos otros Platón, Aristóteles, Epicuro, Arquímedes, Boecio, Alcuino, Averroes, Nicolás de Oresme, Santo Tomas de Aquino, Jean Buridan, Leonardo da Vinci, Raimundo Lulio, Francis Bacon, René Descartes, John Locke, David Hume, Emmanuel Kant y John Stuart Mill.


La filosofía de la ciencia no se denominó así hasta la formación del Círculo de Viena, a principios del siglo XX. En la misma época, la ciencia vivió una gran transformación a raíz de la teoría de la relatividad y de la mecánica cuántica. Entre los filósofos de la ciencia más conocidos del siglo XX figuran Karl R. Popper y Thomas Kuhn, Mario Bunge, Paul Feyerabend, Imre Lakatos, Ilya Prigogine, etc.


Precursores

Para Aristóteles (384 a. C.-322 a. C.) la ciencia era conocimiento cierto por medio de causas. Esta definición (teniendo en cuenta el amplio concepto de ciencia de la antigüedad, diferente del más restrictivo actual) tuvo vigencia en Europa occidental durante siglos, hasta que fue rechazada por la nueva filosofía natural que nacía en los siglos XVII y XVIII


Después de sus conquistas en Europa, partiendo de España, y en Asia hasta la India, los árabes comenzaron a interesarse tanto por las civilizaciones de Occidente como por las de Oriente, a tanto que manifestaron la ambición de heredar la aportación grecorromana. Al-Manzor (712-775 d. C.) fue el primer califa que estimuló esta ambición, pues hizo traducir al árabe todos los libros de los griegos y fundó en Bagdad una especie de universidad, que comprendía una importante biblioteca y un observatorio astronómico. Durante varios siglos, el idioma árabe fue considerado como la lengua de la ciencia, y las gentes de diferentes países de Europa iban desde muy lejos a Bagdad para beber en las fuentes de la ciencia antigua salvaguardada por los árabes.


El desarrollo de la ciencia entre los árabes alcanzó su apogeo hacia los siglos IX y X y, como la astronomía gozó siempre de popularidad en Oriente, fue completamente natural que los árabes dedicaran una muy particular atención a esta rama de la ciencia. Sirviéndose del Almagesto, traducción árabe del famoso Tratado de Astronomía, de Ptolomeo, los astrónomos árabes trataron de reducir las teorías a tablas, perfeccionar los instrumentos de medida y multiplicar las observaciones con más precisión. Pronto se dieron cuenta de ciertos errores cometidos por el astrónomo alejandrino, principalmente en lo relativo al tiempo de revolución de la Luna, los límites de los eclipses solares y las posiciones respectivas de Mercurio y Venus con relación al Sol.


El descubrimiento más importante hecho por los astrónomos árabes fue la precesión de los equinoccios.3​ Este importante aporte se atribuye a Al-Battani, también llamado Albatenio, gran señor, que vivió entre finales del siglo IX y comienzos del X.


La escolástica propuso la regularidad y uniformidad para su aplicación en la ciencia.[cita requerida]


René Descartes (1596-1650) pretendía un conocimiento cierto basado en la existencia indudable de un sujeto pensante, así como avanzar gracias a ideas claras y distintas, dejando el papel de la experiencia en segundo plano. No es de extrañar que en el campo de la ciencia, los racionalistas destacaran en matemáticas, como el mismo Descartes o Leibniz, creador junto con Newton del cálculo infinitesimal.


La corriente filosófica iniciada por Francis Bacon (1561-1626) proponía un conocimiento de la naturaleza empirista e inductista. Para elegir entre teorías rivales no había que recurrir a la argumentación, sino realizar un experimento crucial (instantia crucis) que permitiese la selección. David Hume (1711-1776), el principal filósofo empirista, subrayó aún más la importancia de los hechos frente a las interpretaciones. Pero el racionalismo y el empirismo clásicos destacaban excesivamente uno de los aspectos de la ciencia (la racionalidad o la experiencia) en detrimento del otro. El idealismo trascendental de Kant (1724-1804) intentó una primera síntesis de ambos sistemas en la que el espacio y el tiempo absolutos de Newton se convirtieron en condiciones que impone la mente para poder aprehender el mundo externo.


Dentro de la tradición empirista Auguste Comte (1798-1857) propuso una filosofía, el positivismo, en la que la ciencia se reducía a relacionar fenómenos observables, renunciando al conocimiento de causas. Ernst Mach (1838-1916) ejerció, con su empiriocriticismo, una gran influencia que preparó el nacimiento del Círculo de Viena. Mach desarrolló una filosofía de orientación empirista centrada en los conceptos y métodos de la ciencia. Esta debe estudiar sólo las apariencias (los fenómenos), de forma que intentar estudiar algo que no se nos presenta directamente a los sentidos es hacer metafísica. Coherente con sus ideas filosóficas, Mach se opuso hasta el final a la nueva teoría atómica, cuyo objeto es inalcanzable a la experiencia.


Pierre Duhem (1861-1916) afirmó que "toda ley física es una ley aproximada; por lo tanto, siguiendo la lógica estricta, no puede ser ni verdadera ni falsa; cualquier otra ley que represente las misma experiencias con la misma aproximación puede pretender, con tanto derecho como la primera, el título de ley verdadera, o, para hablar más exactamente, de ley aceptable". Aun así, Duhem opinaba que a medida que la ciencia avanza, se va acercando progresivamente a una descripción más fiel de la naturaleza.


La ciencia como producto de la lógica y la razón

Empirismo lógico

Esta sección es un extracto de Empirismo lógico[editar]

El empirismo lógico, también llamado neopositivismo, positivismo lógico o empirismo racional, es una corriente en la filosofía de la ciencia que limita la validez del método científico a lo empírico y verificable. Esta limitación, conocida como verificacionismo, prohíbe inducir una regla general a partir de observaciones particulares, lo cual eventualmente despertó críticas sobre la incompatibilidad de esta corriente con muchas ramas de la ciencia fundamentadas en la inducción para construir conocimiento válido. El empirismo lógico o neopositivismo es más estricto aún que el positivismo y su defensa del método científico como única forma válida de conocimiento.


El empirismo lógico surgió durante el primer tercio del siglo XX alrededor del grupo de científicos y filósofos que formaron el célebre Círculo de Viena.

Falsacionismo

Esta sección es un extracto de Falsacionismo[editar]


Sir Karl Raimund Popper. Autor de la obra La lógica de la investigación científica.

El falsacionismo o racionalismo crítico es una corriente epistemológica fundada por el filósofo austriaco Karl Popper (1902-1994). Para Popper, contrastar una teoría significa intentar refutarla mediante un contraejemplo. Si no es posible refutarla, dicha teoría queda «corroborada», pudiendo ser aceptada provisionalmente, pero no verificada; es decir, ninguna teoría es absolutamente verdadera, sino a lo sumo «no refutada». El falsacionismo es uno de los pilares del método científico.


El filósofo Karl Popper entendió que los filósofos del Círculo de Viena (al cual él mismo estuvo muy vinculado, aunque no como miembro) habían mezclado dos problemas diferentes para los que habían resuelto dar una única solución: el verificacionismo. En contraposición a este punto de vista, Popper remarcó que una teoría podría perfectamente tener significado sin ser científica, y que, como tal, un «criterio de significación» podría no necesariamente coincidir con un «criterio de demarcación». Así pues, ideó su propio sistema, al que se denomina falsacionismo (cabe señalar que Popper no llama a su metodología falsacionismo, sino racionalismo crítico). Este no solo es interpretable como una alternativa al verificacionismo; supone también un acuerdo acerca de la distinción conceptual que habían ignorado las teorías previas.


Para Popper —y a diferencia del Círculo de Viena— la ciencia no es capaz de verificar si una hipótesis es cierta, pero sí puede demostrar si ésta es falsa. Por eso no sirve la inducción, porque por mucho que se experimente nunca se podrá examinar todos los casos posibles, y basta con un solo contraejemplo para echar por tierra una teoría. Así pues, frente a la postura verificacionista preponderante hasta ese momento en filosofía de la ciencia, Popper propone el falsacionismo. Aunque Popper era realista no aceptaba la certeza, es decir, nunca se puede saber cuándo nuestro conocimiento es cierto. Popper comenzó describiendo la ciencia, pero en su evolución filosófica acabó siendo prescriptivo (aunque sin llegar al rigor normativo del Círculo), recomendando a la ciencia el método hipotético deductivo. Es decir, la ciencia no elabora enunciados ciertos a partir de datos, sino que propone hipótesis (que aunque se basen en la experiencia suelen ir más allá de ésta y predecir experiencias nuevas) que luego somete al filtro experimental para detectar los errores.


Popper vio la demarcación como un problema central en la filosofía de la ciencia. Propuso el falsacionismo como una forma de determinar si una teoría es científica o no. Simplificando, se podría decir que si una teoría es falsable, entonces es científica; si no es falsable, entonces no es ciencia.4​


Para Popper, afirmar que una teoría es científica quiere decir que añade conocimiento racional acerca del mundo empírico, por lo tanto, no puede ser:


Tautológica (no añade nada)

Contradictoria (va contra la lógica racional)

Metafísica (afirma algo que no puede ser comprobado experimentalmente)

La falsabilidad fue uno de los criterios utilizados por el Juez William Overton para determinar que el creacionismo no era científico y que no debería enseñarse en los colegios de Arkansas.


La falsabilidad es una propiedad de los enunciados y de las teorías, y, en sí misma, es neutral. Como criterio de demarcación, Popper busca tomar esta propiedad como base para afirmar la superioridad de teorías falsables sobre las no falsables, como parte de la ciencia, estableciendo así una posición que podría ser llamada falsacionismo con implicaciones políticas.[cita requerida] Sin embargo, muchas cosas de las que pueden ser consideradas como dotadas de significado y utilidad no son falsables. Con toda certeza, los enunciados no falsables desempeñan una función en las propias teorías científicas. Lo que el criterio Popperiano permite ser llamado científico está abierto a interpretación. Una interpretación estricta concedería muy poco, puesto que no existen teorías científicas de interés que se encuentren completamente libres de anomalías. Del mismo modo, si solo consideramos la falsabilidad de una teoría y no la voluntad de un individuo o de un grupo para obtener o aceptar instancias falsables, entonces permitiríamos casi cualquier teoría.


En cualquier caso, es muy útil conocer si un enunciado de una teoría es falsable, aunque solo sea por el hecho de que nos proporciona un conocimiento acerca de las formas con las que alguien podría evaluar una teoría.


La tesis de Duhem-Quine argumenta que no es posible probar que un enunciado ha sido falsado; en su lugar, la falsación ocurre cuando la comunidad científica se pone de acuerdo en que ha sido falsado (véase consenso científico). Esta es una crítica importante al falsacionismo, pues cualquier enunciado observacional, por inocente que parezca, presupone ciertas concepciones acerca del mundo, y resulta imposible dejar de preguntarse si esas concepciones son científicas o no.

Reacción

Hasta la década de los sesenta habían prevalecido las explicaciones lógicas de la ciencia. A partir de la obra de Thomas Kuhn (1922-1996) La estructura de las revoluciones científicas hubo un cambio en la perspectiva y se empezaron a tener en cuenta los aspectos históricos, sociológicos y culturales de la ciencia. La obra de Kuhn fue importante porque posicionó las ideas históricas de la escuela epistemológica francesa (Henri Bergson, Henri Poincaré, Alexandre Koyré, Gaston Bachelard, etc.) en los círculos científicos de los Estados Unidos que después de la Segunda Guerra Mundial se habían mantenido herméticamente cerrados.


Ciencia, historia y revolución científica

La estructura de las revoluciones científicas se puede clasificar de descriptiva. Apenas dedica espacio a conceptos como verdad o conocimiento, y presenta la ciencia bajo un enfoque histórico y sociológico. Las teorías dominantes bajo las que trabajan los científicos conforman lo que Kuhn llama paradigma. La ciencia normal es el estado habitual de la ciencia en el que el científico no busca criticar, de ninguna manera, el paradigma, sino que da éste por asumido y busca la ampliación del mismo. Si el número o la importancia de problemas no resueltos dentro de un paradigma es muy grande, puede sobrevenir una crisis y cuestionarse la validez del paradigma. Entonces la ciencia pasa al estado de ciencia extraordinaria o ciencia revolucionaria en el que los científicos ensayan teorías nuevas. Si se acepta un nuevo paradigma que sustituya al antiguo se ha producido una revolución científica. Así se entra en un periodo nuevo de ciencia normal en el que se intenta conocer todo el alcance del nuevo paradigma.


El nuevo paradigma no se admite únicamente por argumentos lógicos, en este proceso intervienen de manera importante aspectos culturales propios de la persona del científico. Según Kuhn, la visión de la naturaleza que acompaña al nuevo paradigma no puede compararse bajo ningún elemento común a la del antiguo; a esto Kuhn llama la inconmensurabilidad de los paradigmas. El nuevo se admite de forma generalizada cuando los científicos del antiguo paradigma van siendo sustituidos.


Falsacionismo sofisticado

Esta sección es un extracto de Falsacionismo sofisticado[editar]

El falsacionismo sofisticado es el nombre que da Imre Lakatos a su crítica a la epistemología y al falsacionismo, basada en lo que él denomina programas de investigación científica.


La metodología de los programas de investigación supone un paso más allá en el falsacionismo ya que resuelve algunos de sus problemas. Debido a esto, Lakatos pasa a denominar falsacionismo ingenuo al defendido por Karl Popper en su libro La lógica de la investigación científica, mientras que llama falsacionismo sofisticado a las sugerencias más tardías de Popper, así como a su propia metodología de los programas de investigación.


Lakatos intentó adaptar el sistema de Popper a la nueva situación creada por Kuhn. La intención de Popper era realizar una reconstrucción racional de la historia de la ciencia que muestre que ésta progresa de modo racional. Sin embargo, la historia de la ciencia muestra que la ciencia no avanza solo falsando teorías con hechos, sino que hay que tener en cuenta la competencia entre teorías y la confirmación de teorías. Por eso Lakatos sustituye el falsacionismo ingenuo de Popper por un falsacionismo sofisticado. En la realidad la ciencia no evalúa una teoría aislada, sino un conjunto de teorías que conforman lo que Lakatos llama programa de investigación científica (también llamado paradigma). Un programa de investigación se rechaza al completo cuando se dispone de un sustituto superior que explique todo lo que explicaba el anterior más otros hechos adicionales. Lakatos reconoce que la dificultad de este esquema radica en que, en la práctica, puede costar años llevarlo a cabo, o incluso ser inaplicable en programas de investigación muy complejos.

Anarquismo metodológico

Esta sección es un extracto de Anarquismo epistemológico[editar]


Paul Feyerabend propuso el anarquismo epistemológico.

El anarquismo epistemológico, anarquismo metodológico o dadaísmo epistemológico, es una teoría epistemológica desarrollada por el filósofo de la ciencia austríaco Paul Feyerabend, que sostiene que no hay reglas metodológicas útiles o libres de excepciones, que rijan el progreso de la ciencia. Sostiene que la ciencia que funciona de acuerdo con normas fijas y universales no es realista, sino perniciosa y perjudicial para la ciencia. Propone en cambio una epistemología abierta, a manera de una serie de herramientas de investigación científica adaptables a cada contexto pero no postuladas como leyes inamovibles.


Feyerabend afirmó que una metodología científica universalmente válida es un contrasentido, que no pueden dictarse normas a la ciencia para su desarrollo. Criticó ácidamente el cientificismo por ser «castillos en el aire». Puesto que no hay conocimientos ciertos y no se sabe qué paradigmas dominarán la ciencia del futuro, descartarlos ahora supone cerrar puertas al mañana. Feyerabend argumenta que la ciencia es una empresa esencialmente anárquica,5​ que los métodos científicos no son monopolio exclusivo en el lidiar con el conocimiento y que los científicos nunca han obrado con una tradición distintiva y estrechamente definida. Describe el proceso de la educación científica contemporánea en una forma leve de adoctrinamiento, con el fin de hacer la historia de la ciencia más aburrida, simple, uniforme, objetiva y más fácil de entender para normas estrictas e inflexibles.6​


La teoría sugiere tratar las leyes científicas (no la investigación científica en sí) como una ideología, junto con otras, como la religión, la magia y la mitología, y considera el dominio de la ciencia en la sociedad como algo autoritario e injustificado.7​ La promulgación de la teoría hizo ganar a Feyerabend el título de «el peor enemigo de la ciencia» por sus detractores.8​

Constructivismo

Esta sección es un extracto de Constructivismo (filosofía)[editar]

Este artículo o sección necesita referencias que aparezcan en una publicación acreditada.

Este aviso fue puesto el 3 de septiembre de 2008.

En filosofía de la ciencia y epistemología, el constructivismo o constructivismo epistemológico es una corriente de pensamiento surgida a mediados del siglo XX, de la mano de investigadores de disciplinas muy diversas (filósofos, psiquiatras, antropólogos, físicos, matemáticos, biólogos, psicólogos, sociólogos, lingüistas, etc.) que sostiene que la realidad es una construcción en cierto grado «inventada» por quien la observa. Nunca se podrá llegar a conocer la realidad tal como es pues siempre, al conocer algo, ordenamos los datos obtenidos de la realidad (aunque sean percepciones básicas) en un marco teórico o mental. De tal modo, ese objeto o realidad que entendemos «tal» no es tal, no tenemos un «reflejo especular» de lo que está «ahí fuera de nosotros», sino algo que hemos construido con base en nuestras percepciones y datos empíricos. Así, la ciencia y el conocimiento en general ofrecen solamente una aproximación a la verdad, que queda fuera de nuestro alcance.


Gerald M. Edelman ilustra esta idea diciendo que «Cada acto de percepción es en cierto grado un acto de creación y cada acto de memoria es a cierto modo un acto de imaginación».9​

Corrientes actuales

Para hablar de una filosofía de la ciencia no basta con tener una visión panorámica de lo que es filosofía y de lo que es ciencia. Tampoco es suficiente el seguimiento histórico de las opiniones y conceptos emitidos por los pensadores del pasado. Es necesario ubicarse en el pensamiento actual de los científicos más avanzados y respetar sus conceptos sobre lo que ellos consideran como ciencia, y es necesario entender que el dominio de la filosofía son los conceptos universales y abstractos que nunca pueden llegar a ser objeto de la ciencia.


Es extremadamente complejo (y, posiblemente, todavía falta algo más de perspectiva temporal) presentar un panorama completo de la filosofía de la ciencia de los últimos treinta o treinta y cinco años. Así como todos los autores anteriores ya han muerto, la mayoría de los que vienen a continuación no. Aquí se intentará presentar un bosquejo de la gran variedad de enfoques actuales pero teniendo en mente que, dentro de pocos años, algunas de las corrientes mencionadas pueden haber pasado al olvido, y que destaquen otros pensadores que hoy tienen una repercusión menor.


Así como anteriormente se podía hablar de "el método" de la ciencia, el gran desarrollo de muchas disciplinas científicas ha hecho que los filósofos de la ciencia comiencen a hablar de "los métodos", ya que no es posible identificar un método único y universalmente válido. La idea heredada de la física clásica de que todo es reducible a expresiones matemáticas ha cedido terreno ante situaciones nuevas como la teoría del caos o los avances de la biología. Por otro lado han desaparecido cuestiones que llegaron a cubrir cientos de páginas y generaron grandes controversias. Quizás el caso más flagrante sea el del problema de la demarcación, centrado en la distinción (demarcación) entre ciencia y otros conocimientos no científicos. Prácticamente el tema desaparece después de Popper y es seguido en España por Gustavo Bueno en su teoría del cierre categorial.


Concepciones estructuralistas y semánticas

Frente al intento de los anteriores empiristas lógicos de formalizar las teorías de la física en el lenguaje de la lógica de primer orden, que resultaba un tanto forzado e innecesariamente complicado, Patrick Suppes fue el primero en proponer una concepción semántica y estructural de las teorías, caracterizadas como familias de estructuras conjuntistas identificadas con los modelos de la teoría.10​ Esta manera de presentar las teorías en el lenguaje informal de la teoría de conjuntos resultaba así más intuitiva y familiar. Suppes ha elaborado sus ideas mediante el desarrollo de teorías cada vez más potentes sobre las estructuras teóricas, incluyendo sus importantes teoremas de representación e invariancia.11​


En filosofía de la ciencia se conoce a veces como estructuralismo el programa de reconstrucción de las teorías físicas propuesto por Joseph D. Sneed (1938) en 197112​ como una síntesis del aparato formal de Suppes, del racionalismo crítico y del positivismo lógico con la corriente historicista de la ciencia. El estructuralismo fue reelaborado y divulgado por Wolfgang Stegmüller (1923-1991) y Carlos Ulises Moulines (1946).


De la consideración de las teorías como estructuras le viene a esta propuesta metodológica el nombre de estructuralismo, que no tiene nada que ver con el estructuralismo lingüístico de Saussure.


Junto con las restricciones empíricas, una teoría consta de una estructura conceptual y de un ámbito de aplicación. Puesto que las teorías no se presentan aisladas sino interrelacionadas también es necesario estudiar las relaciones entre teorías, las redes teóricas. Entre estas relaciones encontramos la de reducción, quizá la más destacada por su papel en la unidad de la ciencia. A pesar de las múltiples teorías que puedan coexistir para explicar los mismos hechos, la unidad ontológica de la ciencia puede salvarse si todas ellas son reductibles a una sola teoría (o a unas pocas no inconmensurables entre sí). Esta relación interteorética desempeña un papel fundamental, por ejemplo, en el trabajo de los físicos en su búsqueda de la Teoría del todo.


Moulines propone una definición recursiva de la filosofía de la ciencia como teorización sobre teorizaciones, cuya epistemología no es descriptiva ni prescriptiva, sino interpretativa. Las teorías de la ciencia son construcciones culturales, pero ello no implica que la filosofía de la ciencia sea sustituida por una sociología de la ciencia.


Aparte del estructuralismo de Sneed y sus seguidores, también otros desarrollos de la filosofía de la ciencia contemporánea han sido influidos por las ideas y métodos conjuntistas y probabilistas introducidos por Suppes. Bas van Fraassen ha aportado su conocida concepción semántica de las teorías, que ha aplicado al análisis de la mecánica cuántica. Jesús Mosterín13​ y Roberto Torretti14​ han hecho contribuciones en esta dirección, que asimismo aflora en el diccionario conjunto de estos dos autores.15​


Filosofía de la ciencia naturalizada

Para Ronald N. Giere (1938) el propio estudio de la ciencia debe ser también una ciencia: «La única filosofía de la ciencia viable es una filosofía de la ciencia naturalizada». Esto es así porque la filosofía no dispone de herramientas apropiadas para el estudio de la ciencia en profundidad. Giere sugiere, pues, un reduccionismo en el sentido de que para él la única racionalidad legítima es la de la ciencia. Propone su punto de vista como el inicio de una disciplina nueva, una epistemología naturalista y evolucionista, que sustituirá a la filosofía de la ciencia actual.


Larry Laudan (1941) propone sustituir el que él denomina modelo jerárquico de la toma de decisiones por el modelo reticulado de justificación. En el modelo jerárquico los objetivos de la ciencia determinan los métodos que se utilizarán, y estos determinan los resultados y teorías. En el modelo reticulado se tiene en cuenta que cada elemento influye sobre los otros dos, la justificación fluye en todos los sentidos. En este modelo el progreso de la ciencia está siempre relacionado con el cambio de objetivos, la ciencia carece de objetivos estables.


Realismo frente a empirismo

El debate sobre el realismo de la ciencia no es nuevo, pero en la actualidad aún está abierto. Bas C. Van Fraasen (1941), empirista y uno de los principales oponentes del realismo, opina que todo lo que se requiere para la aceptación de las teorías es su adecuación empírica. La ciencia debe explicar lo observado deduciéndolo de postulados que no necesitan ser verdaderos más que en aquellos puntos que son empíricamente comprobables. Llega a decir que «no hay razón para afirmar siquiera que existe una cosa tal como el mundo real». Es el empirismo constructivo, para el que lo decisivo no es lo real, sino lo observable.


Laudan y Giere presentan una postura intermedia entre el realismo y el subjetivismo estrictos. Laudan opina que es falso que sólo el realismo explique el éxito de la ciencia. Giere propone que hay ciencias que presentan un alto grado de abstracción, como la mecánica cuántica, y utilizan modelos matemáticos muy abstractos. Estas teorías son poco realistas. Las ciencias que estudian fenómenos naturales muy organizados como la biología molecular, utilizan teorías que son muy realistas. Por ello no se puede utilizar un criterio uniforme de verdad científica.


Rom Harré (1927) y su discípulo Roy Bhaskar (1944) desarrollaron el realismo crítico, un cuerpo de pensamiento que quiere ser el heredero de la Ilustración en su lucha contra los irracionalismos y el racionalismo reduccionista. Destacan que el empirismo y el realismo conducen a dos tipos diferentes de investigación científica. La línea empirista busca nuevas concordancias con la teoría, mientras que la línea realista intenta conocer mejor las causas y los efectos. Esto implica que el realismo es más coherente con los conocimientos científicos actuales.


Dentro de la corriente racionalista de oposición al neopositivismo se encuentra a Mario Bunge (1919). Analiza los problemas de diversas epistemologías, desde el racionalismo crítico popperiano hasta el empirismo, el subjetivismo o el relativismo. Bunge es realista crítico. Para él la ciencia es falibilista (el conocimiento del mundo es provisional e incierto), pero la realidad existe y es objetiva. Además se presenta como materialista , pero para soslayar los problemas de esta doctrina apostilla que se trata de un materialismo emergentista.


Sociología de la ciencia

Esta sección es un extracto de Sociología de la ciencia[editar]

Se ha sugerido que este artículo o sección sea fusionado con Sociología del conocimiento científico. Para más información, véase la discusión.

Una vez que hayas realizado la fusión de contenidos, pide la fusión de historiales aquí.

Uso de esta plantilla: {{sust:Fusionar|Nombre de hasta otros veinte artículos para fusionar separados por "|"}}

La sociología de la ciencia considera las influencias y componentes sociales en la ciencia. Investiga la forma en que se organiza socialmente la comunidad científica en la producción, difusión y reclutamiento o entrenamiento de sus integrantes; de qué forma se construye el discurso de una comunidad específica y de la ciencia en general; del conocimiento científico en la neutralidad u objetividad de la producción de ideas, teorías, etc.


Difiere de la sociología del conocimiento, que investiga los orígenes sociales de las ideas y el efecto que las ideas dominantes tienen sobre las sociedades. Como la sociología del conocimiento, se aproxima en averiguar la forma en la cual es válido o aceptado el conocimiento en la sociedad, así como la conexión entre los diversos actores y los usos que se da o legitima la ciencia. Específicamente que técnicas, teorías y medios de difusión son considerados como dominantes o la forma que adquieren supremacía sobre sociedades.


Robert King Merton se considera el fundador de la sociología de la ciencia en los años cuarenta, luego muy influida por La estructura de las revoluciones científicas de Kuhn, sobre todo el concepto de paradigma. La primera sociología de la ciencia distinguía unos factores internos de la propia ciencia (metodología, objetivos, etc.) que eran independientes de otros factores externos (sociológicos, políticos, etc.) no pertenecientes a la ciencia. Pero una parte de la sociología de la ciencia posterior prescindió de esta distinción. David Bloor y Barry Barnes son los principales exponentes. Afirman que los científicos son personas que se pueden ver tan afectadas por los factores sociológicos que debemos pensar que todas las creencias son igualmente problemáticas. Bruno Latour y Steve Woolgar proponen un concepto antropológico de la ciencia y, por tanto, su estudio por esta disciplina. Junto con las influencias antropológicas, aúnan también corrientes filosóficas como el pragmatismo, para crear algo así como una epistemología alternativa.

Filosofía de la ciencia real

Atendiendo a las críticas de Thomas Kuhn y otros historiadores de que la filosofía de la ciencia con frecuencia se ocupa de problemas artificiosos y alejados de la ciencia real, diversos filósofos de la ciencia contemporáneos han tratado de aproximar sus análisis a la problemática actual de la investigación científica. Ello ha tenido como consecuencia tanto la revitalización de la filosofía general de la ciencia como el desarrollo de varias ramas especializadas de la misma:


Filosofía de la física

Filosofía de la ciencia de la computación

Filosofía de las ciencias sociales

Filosofía de la economía

Filosofía de las matemáticas

Filosofía de la psicología

Filosofía de la química

Filosofía de la biología

A ambas tareas han contribuido filósofos como John Earman, Bernulf Kanitscheider, Jesús Mosterín,16​ Lawrence Sklar, Elliott Sober, Roberto Torretti17​ y Bas C. van Fraassen, así como numerosos científicos, como Lee Smolin.


Filosofías de las ciencias particulares

Matemáticas

Esta sección es un extracto de Filosofía de las matemáticas[editar]


Principia Mathematica, una de las obras más importantes sobre filosofía de las matemáticas.

La filosofía de las matemáticas es un área de la filosofía teórica, que trata de comprender y explicar los requisitos, el objeto, el método y la naturaleza18​ de las matemáticas. Como área de estudio puede ser aproximada desde dos direcciones: el punto de vista de los filósofos y el de los matemáticos. Desde el punto de vista filosófico, el objetivo principal es dilucidar una variedad de aspectos problemáticos en la relación entre las matemáticas y la filosofía. Desde el punto de vista matemático, el interés principal es proveer al conocimiento matemático de fundamentos firmes. Es importante mantener presente que aunque estos puntos de vista pueden implicar diferentes esquemas e intereses, no son opuestos, sino más bien complementarios: «Cuando los matemáticos profesionales se ocupan de los fundamentos de su disciplina, se dice que se dedican a la investigación fundamental (o trabajo fundacional o de fundamentos.- ver Metamatemática). Cuando los filósofos profesionales investigan cuestiones filosóficas relativas a las matemáticas, se dice que contribuyen a la filosofía de las matemáticas. Por supuesto, la distinción entre la filosofía de las matemáticas y los fundamentos de las matemáticas es vaga, y a la mayor interacción que haya entre los filósofos y los matemáticos que trabajan en cuestiones relativas a la naturaleza de las matemáticas, mejor.».19​


De acuerdo a Jeremy Avigad (profesor de ciencias matemáticas y de filosofía en la Universidad Carnegie Mellon20​) “El conocimiento matemático ha sido considerado por mucho tiempo como un paradigma del conocimiento humano con verdades que son a la vez necesarias y ciertas, por lo que dar una explicación del conocimiento matemático es una parte importante de la epistemología. Los objetos matemáticos, tales como los números y los conjuntos, son ejemplos arquetípicos de abstracciones, dado que el tratamiento de tales objetos en nuestro discurso es como si fueran independientes del tiempo y el espacio, encontrar un lugar para los objetos de este tipo en un marco más amplio del pensamiento es una tarea central de la ontología, o metafísica. El rigor y la precisión del lenguaje matemático depende del hecho de que está basado en un vocabulario limitado y gramática muy estructuradas, y las explicaciones semánticas del discurso matemático a menudo sirven como punto de partida de la filosofía del lenguaje. Aunque el pensamiento matemático ha demostrado un alto grado de estabilidad a través de la historia, su práctica también ha evolucionado con el tiempo, y algunos desarrollos han provocado controversia y debate; clarificar los objetivos básicos de esta práctica y los métodos apropiados es, por lo tanto, una tarea metodológica y fundacional importante, situando la filosofía de las matemáticas dentro de la filosofía general de la ciencia.

De acuerdo a Bertrand Russell, las matemáticas son un estudio que, cuando se parte de sus porciones más familiares, puede llevarse a cabo en cualquiera de dos direcciones opuestas (una busca la expansión del conocimiento, la otra darle fundamentos: Nota del traductor). Pero se debe entender que la distinción es una, no en la materia objeto, pero en el estado de la mente del investigador...(...)... así como necesitamos dos tipos de instrumentos, el telescopio y el microscopio, para la ampliación de nuestras capacidades visuales, igual necesitamos dos tipos de instrumentos para la ampliación de nuestras capacidades lógicas, una para hacernos avanzar a las matemáticas superiores, y el otro que nos lleve hacia atrás, hacia los fundamentos lógicos de las cosas que estamos inclinados a tomar por sentado en las matemáticas. Veremos que mediante el análisis de las nociones matemáticas ordinarias se adquiere una nueva perspectiva, nuevos poderes, y los medios de llegar a nuevos temas matemáticos completos, mediante la adopción de nuevas líneas de avance, siguiendo nuestro viaje hacia atrás.21​

Como ya se ha sugerido, estas aproximaciones no son conflictivas. En las palabras de Imre Lakatos: «Al discutir los esfuerzos modernos para establecer los fundamentos para el conocimiento matemático uno tiende a olvidarse que esos son solo un capítulo en el gran esfuerzo para superar el escepticismo a través de establecer los fundamentos para el conocimiento en general. El objeto de mi contribución es mostrar la filosofía matemática moderna como profundamente empotrada en la epistemología general y como solo siendo entendible en ese contexto». (énfasis de Lakatos22​).


Dada la vastedad y complejidad del tema, lo que sigue ofrece una visión muy superficial.

Física

Esta sección es un extracto de Filosofía de la física[editar]


La dualidad onda-partícula, en el que se aprecia cómo un mismo fenómeno puede ser percibido de dos modos distintos, fue uno de los problemas filosóficos que planteó la mecánica cuántica.

La filosofía de la física se refiere al conjunto de reflexiones filosóficas sobre la interpretación, epistemología y principios rectores de las teorías físicas y la naturaleza de la realidad. Aunque raramente la exposición estándar de las teorías físicas discute los aspectos filosóficos, lo cierto es que las concepciones filosóficas de los científicos han tenido un papel destacado en el desarrollo de dichas teorías. Esto fue notorio a partir de Newton y Kant, llegando a ser muy importante en el siglo XX, cuando la teoría de la relatividad dio lugar a un análisis minucioso de asuntos tradicionalmente objeto de estudio de la filosofía, como la naturaleza del tiempo y el espacio. La filosofía de la física contribuye a través de la crítica de los productos de la física, retroalimentándola.

Química

Esta sección es un extracto de Filosofía de la química[editar]

La filosofía de la química considera la metodología y las suposiciones subyacentes a la ciencia química así como los aspectos filosóficos de dicha ciencia. Es objeto de estudio de filósofos, químicos y equipos de filósofos y químicos.


La filosofía de la química actual se refiere a la naturaleza de las entidades químicas, con una discusión epistemológica y ontológica.23​

Biología

Esta sección es un extracto de Filosofía de la biología[editar]

La filosofía de la biología es una subdisciplina de la filosofía de la ciencia encargada del estudio de los presupuestos e implicaciones filosóficas (epistemológicos y ontológicos) de la biología. La historia de la biología, la sociobiología y la bioética son campos de investigación estrechamente relacionados con la filosofía de la biología.


Algunos temas pasados y presentes de la filosofía de la biología son las unidades de selección, la emergencia, el determinismo biológico, la reductibilidad de la biología, el reduccionismo genético, la epistemología evolucionista, el origen de la vida, el debate externalistas contra internalistas, adaptacionistas contra estructuralistas y vitalistas contra antivitalistas.

Psicología

Esta sección es un extracto de Filosofía de la psicología[editar]

La filosofía es la madre de todas las ciencias, siendo la psicología parte de ella hasta su independencia alrededor de 1879 con el nacimiento de la psicofísica.24​ Su significado literal es psyché-logos ("estudio del alma"). Una rama de la filosofía es la filosofía de la ciencia, que, desde la división hecha por Ferrier en el siglo XIX entre ontología y epistemología, se encarga del análisis del conocimiento científicamente obtenido. Cada ciencia genera su propia epistemología o filosofía especial, con base en las características de su que hacer intrínseco. Otras de las ramas de la filosofía que se relacionan con la psicología y la epistemología es la filosofía de la mente.


En el caso de la psicología, según Jacob Robert Kantor, ha habido tres etapas de desarrollo de sus contenidos epistemológicos: una primera ocupándose de entidades aespaciales, como el alma; una segunda en términos de orden organocéntrico-mecanicista, como las variantes estímulo-respuesta y de procesamiento de información; y una tercera, en que se abordan las interacciones complejas entre el individuo y su ambiente. Se ha llegado, pues, aparentemente, a un estudio sistémico del objeto de conocimiento. No obstante, no todas las corrientes de la psicología en vigencia practican ese enfoque sistémico de manera uniforme, debido a que parten de diferentes opciones epistemológicas en pleno debate.

octubre 07, 2020

Gnoseología (teoría del conocimientos)

 La gnoseología (del griego γνωσις, gnōsis, «conocimiento» o «facultad de conocer», y λόγος, logos, «razonamiento» o «discurso»), también llamada teoría del conocimiento,1​ es la rama de la filosofía que estudia la naturaleza, el origen y los límites del conocimiento.2​3​


La gnoseología no estudia los conocimientos particulares, como pueden ser los conocimientos de la física, de la matemática o del entorno inmediato, sino la naturaleza del conocimiento en general. Muchas ciencias particulares tienen además su propia filosofía, como por ejemplo la filosofía de la física, la filosofía de la matemática, la filosofía de la historia, etc. Otras disciplinas también se ocupan del conocimiento en general, pero desde otros puntos de vista. La psicología estudia los aspectos de la vida mental implícitos en el conocer, la lógica estudia la corrección o incorrección de los razonamientos que pueden implicar nuevos conocimientos, y la ontología estudia la naturaleza de los objetos que se pueden conocer.


Los problemas en torno al conocimiento son centrales en la filosofía y su consideración se inicia con la filosofía misma, especialmente en el Teeteto de Platón. Prácticamente todos los grandes filósofos han contribuido a la gnoseología.

El experimento mental del cerebro en una cubeta pretende poner a prueba distintas teorías acerca del conocimiento.


Naturaleza del conocimiento

Tipos de conocimiento

En la gnoseología se suele distinguir entre tres tipos de conocimiento: el conocimiento proposicional, el conocimiento práctico o performativo, y el conocimiento directo (acquaintance).5​ El primero se asocia a la expresión «saber que», el segundo a la expresión «saber cómo», y el tercero, en el español, se asocia a la expresión «conocer» (en vez de «saber»). Así se dice, por ejemplo, que en la biología se sabe que los perros son mamíferos. Este es un conocimiento proposicional. Luego existe un saber cómo entrenar un perro, el cual es un conocimiento práctico o performativo. Y por último, el conocimiento por familiaridad es aquel que posee quien dice, por ejemplo, «yo conozco a mi perro».5​ La mayoría del trabajo en gnoseología se centra en el primer tipo de conocimiento, aunque ha habido esfuerzos por cambiar esta tendencia.6​


Conocimiento proposicional

El conocimiento proposicional es un tipo de conocimiento intelectual que se tiene cuando un sujeto sabe que X:


Si X es verdadero

Si cree en la verdad de X

Si hay fundamento para creer en X

Se lo asocia a la expresión del lenguaje ordinario "saber que" (en inglés, know that) . Por ejemplo, decimos que sabemos que la Luna orbita alrededor de la Tierra, que el texto que tenemos delante de los ojos está en español, que padecemos de dolor de muelas, o que 2 + 2 = 4. Todos estos conocimientos son muy diversos entre sí, pero tienen en común que todos son conocimiento de una proposición.


Conocimiento práctico

El conocimiento práctico, también llamado conocimiento operacional o procedimental, es el conocimiento que se tiene cuando se poseen las destrezas necesarias para llevar a cabo una acción. Se lo asocia a la expresión "saber cómo" (know how). Por ejemplo, decimos que sabemos cómo ir en bicicleta, cómo redactar una carta comercial o cómo amamantar un niño.


Es frecuente la suposición de que la mayor parte de la teoría del conocimiento "clásica" —es decir, aquella anterior al siglo XX— se ocupa principalmente del conocimiento proposicional. Sin embargo, los problemas del conocimiento operacional gozan de una extensa historia en la filosofía occidental. En la gnoseología contemporánea, sin embargo, la mayoría de los esfuerzos se centran en el conocimiento proposicional (enunciado que afirma o niega algo).


Conocimiento directo

El conocimiento directo, u objetivo (de objeto), es el conocimiento que se puede tener de las entidades. En español, el conocimiento directo se asocia a la expresión "conocer". Por ejemplo, decimos que conocemos a Juan Pérez, que conocemos tal canción, que conocemos París.


Bertrand Russell trazó una distinción influyente entre conocimiento por familiaridad (en inglés, knowledge by acquaintance) y conocimiento por descripción. El primer tipo de conocimiento es el conocimiento de un objeto al que se tiene acceso directo, como puede ser una percepción o un dolor. El segundo es en cambio el conocimiento de un objeto al que no se tiene acceso directo, al que llegamos solo mediante una descripción definida que refiere unívocamente al objeto siendo conocido. Por ejemplo, nuestro conocimiento del agua es un caso de conocimiento por familiaridad, mientras que nuestro conocimiento del centro del Sol es un caso de conocimiento por descripción.7​


Vías de acceso al conocimiento

Un debate importante y recurrente en la gnoseología es aquel entre el racionalismo y el empirismo.8​ El racionalismo es la doctrina que sostiene que parte de nuestro conocimiento proviene de una «intuición racional» de algún tipo, o de deducciones a partir de estas intuiciones.8​ El empirismo defiende, en cambio, que todo conocimiento proviene de la experiencia sensorial.8​ Este contraste está asociado a la distinción entre conocimiento a priori y conocimiento a posteriori,9​ cuya exposición más famosa se encuentra en la introducción a la Crítica de la razón pura, de Immanuel Kant.


Existen dos formas de adquirir el conocimiento:


Sentidos: Es la información que se adquiere por contacto, visión, olfato, audición, gusto o cualquier otro sentido como la propiocepción. Una variante elaborada de esta forma es la transmisión de información entre personas, por ejemplo, comunicar lo que hizo una persona cuando estaba sola.

Razón: Elabora la información e infiere una conclusión. Por ejemplo: si se ponen todas las piezas de un juego de ajedrez en una bolsa oscura y se van retirando una por una, cuando quede una sola pieza se podrá saber cuál es esta pieza sin necesidad de sacarla.

Problema de Gettier

Esta sección es un extracto de Problema de Gettier[editar]

El problema de Gettier es un problema en gnoseología moderna que surge al presentar contraejemplos a la definición clásica de conocimiento como «creencia verdadera justificada» y que obligan a modificar la definición.


Desde al menos el Teeteto de Platón,10​ la gnoseología contaba con una definición generalmente satisfactoria del conocimiento proposicional: si S es un sujeto y p una proposición, entonces S sabe que p si y sólo si:


S cree que p

p es verdadera

S está justificado en creer que p

Por ejemplo, Newton sabe que de alguna manera tiene una manzana si y sólo si:


Newton cree que tiene una manzana

Es verdad que tiene una manzana

Newton está justificado en creer que tiene una manzana

Sin embargo, en 1963, Edmund Gettier publicó un artículo de tres páginas titulado ¿Es el conocimiento creencia verdadera justificada? en el que argumentó que la definición clásica no es suficiente. Gettier mostró que hay casos en los que una creencia verdadera justificada puede fallar en ser conocimiento. Es decir, hay casos en los que los tres requisitos se cumplen, y sin embargo intuitivamente nos parece que no hay conocimiento. Retomando el ejemplo anterior, podría ser que Newton crea que tiene una manzana y esté justificado en ello (por ejemplo, porque parece una manzana), pero que sin embargo la manzana sea de cera. En ese caso, según la definición clásica, Newton no posee conocimiento, porque falta que sea verdad que tiene una manzana. Pero supongamos también que dentro de la manzana de cera hay otra manzana, más pequeña, pero real. Entonces Newton cumple con los tres requisitos: Newton cree que tiene una manzana; Newton está justificado en su creencia; y de hecho tiene una manzana. Sin embargo, intuitivamente nos parece que Newton no posee conocimiento, sino que solamente tuvo suerte (lo que se llama suerte epistémica).


Frente a este problema, muchos filósofos contemporáneos intentaron y aún intentan reparar la definición, dando lugar a nuevas corrientes gnoseológicas. Otros filósofos han propuesto problemas ligeramente diferentes, que se han incorporado a los contraejemplos enunciados por Gettier. El conjunto de estos problemas y el desafío que plantean a la cuestión ¿qué es conocer? recibe el nombre de el problema de Gettier. Aunque se han dedicado cientos de artículos a esta cuestión, no hay consenso respecto a la solución al problema general.11​ El problema de Gettier es uno de los motores principales de la gnoseología contemporánea.

Adquisición del conocimiento

Justificación

Artículo principal: Teoría de la justificación

Uno de los problemas centrales de la teoría del conocimiento es el problema de la justificación, la determinación de en qué circunstancias una creencia —es decir, un determinado juicio o proposición a la que asentimos— puede llamarse realmente conocimiento. El planteamiento clásico de esta cuestión se encuentra en un diálogo platónico, el Teeteto, donde Sócrates defiende que el término "conocimiento" debe restringirse a las creencias verdaderas y justificadas, al mismo tiempo que rechaza que la sensación pura y simple pueda ser identificada con el conocimiento. De acuerdo a esta definición, no basta con afirmar algo verdadero para considerar que eso constituye conocimiento; las razones por las cuales se afirma deben ser fundadas y suficientes. Cuando no se dispone de una justificación semejante, se habla de fe, opinión o convicción, pero no de conocimiento en sentido estricto.


Por su parte, la exigencia de que solo puede considerarse que es conocimiento un conjunto de proposiciones estrictamente verdaderas (demostrables), ha sido cuestionado. En su Lógica de la investigación científica, Karl Popper propuso el falibilismo, según el cual incluso la mejor clase de ciencia empírica es falible. Una posición semejante puede rastrearse ya en René Descartes.


Si partiendo de la llamada "definición platónica" se acepta el punto de vista falibilista, se llega a la idea de que el concepto que designa la característica central del conocimiento (y la ciencia), es el de la (adecuada) justificación o prueba.


Justificación a priori y a posteriori

Esta sección es un extracto de A priori y a posteriori[editar]

Las expresiones a priori12​ (en latín: 'previo a')13​14​ y a posteriori12​ ('posterior a') se utilizan para distinguir entre dos tipos de conocimiento: el conocimiento a priori es aquel que, en algún sentido importante, es independiente de la experiencia;15​ mientras que el conocimiento a posteriori es aquel que, en algún sentido importante, depende de la experiencia.


Por ejemplo, el conocimiento de que «no todos los cisnes son blancos» es un caso de conocimiento a posteriori, pues se requirió de la observación de cisnes negros para afirmar lo establecido. Los juicios a posteriori se verifican recurriendo a la experiencia, son juicios empíricos, se refieren a hechos. Tienen una validez particular y contingente. Ejemplos: «los alumnos de filosofía son aplicados» o «los ancianos son tranquilos».


En cambio, el conocimiento de que «ningún soltero es casado» no requiere de ninguna investigación para ser establecido como verdadero, por lo que es un caso de conocimiento a priori. Parece razonable afirmar que todo el mundo sabe que eso es cierto. Incluso diríamos que es obvio. ¿De dónde proviene la justificación para ese conocimiento? Está claro que no viene de haber preguntado a cada soltero si es casado. Más bien, parece que basta con comprender el significado de los términos involucrados, para convencerse de que la proposición es verdadera. Esta proposición es un ejemplo de lo que se llama una proposición analítica, es decir una proposición cuya verdad descansa sobre el significado de los términos involucrados, y no sobre cómo sea el mundo. Otros ejemplos de proposiciones analíticas podrían ser: «todas las nubes son nubes», «si llueve, entonces llueve» y «esta manzana es roja o no lo es». Al parecer, cuando se trata de proposiciones analíticas, nuestra justificación para creer en ellas es a priori. Esto no quiere decir, por supuesto, que nuestro conocimiento de su verdad sea completamente independiente de la experiencia, pues el significado de cada término se aprende empíricamente. Pero una vez entendidos los términos, la justificación de la verdad de las proposiciones no parece depender de la experiencia (es decir, de cómo sea el mundo). Existen otros candidatos a conocimiento a priori, cuya justificación a priori no estriba en que la proposición sea analítica. Por ejemplo, la famosa frase de Descartes, pienso, luego existo, pretende mostrar que para que alguien sepa que existe, no necesita recurrir a la experiencia, sino que basta con pensar acerca de ello para convencerse. Otro candidato importante es el conocimiento de Dios. Los argumentos ontológicos pretenden mostrar, sin recurrir a la experiencia, que Dios existe.


Tradicionalmente, el conocimiento a priori se asocia con el conocimiento de lo universal y necesario, mientras que el conocimiento a posteriori se asocia con lo particular y contingente. Como la experiencia sensorial en la que generalmente se basan las justificaciones de las proposiciones a posteriori no siempre es confiable, estas proposiciones se pueden rechazar sin caer en contradicciones. Sin embargo, a partir del trabajo El nombrar y la necesidad de Saul Kripke, actualmente se debate la posibilidad del conocimiento contingente a priori y el conocimiento necesario a posteriori.

Problema de la inducción

Esta sección es un extracto de Problema de la inducción[editar]


El hallazgo por Willem de Vlamingh de cisnes negros en Australia, en 1697, obligó a corregir la vieja creencia inductiva de que todos los cisnes eran blancos. Lo mismo podría ocurrir en el futuro con otras generalizaciones científicas.

El problema de la inducción radica en si un resultado obtenido mediante inducción está justificado epistemológicamente, es decir, si la inducción produce conocimiento.16​

A partir de la definición de Platón del conocimiento como «creencia verdadera y justificada»,17​ disponer de una justificación adecuada para la inducción es requisito indispensable para que tales «creencias» constituyan conocimiento válido o legítimo.


La RAE define «inducir» en su sentido filosófico, como «extraer, a partir de determinadas observaciones o experiencias particulares, el principio general que en ellas está implícito». Esas «extracciones» son de dos tipos:


Generalizaciones acerca de las propiedades de «clases de objetos», efectuadas a partir de una cierta cantidad de observaciones de casos individuales. Por ejemplo: la inferencia que las esmeraldas son verdes a partir de la observación de algunas (quizás muchas) esmeraldas individuales.

Presunción de que eventos en el futuro continuarán presentando la misma forma o que las mismas causas ocasionarán los mismos efectos observados en el pasado (ver causalidad). Lo que implica, por ejemplo, la creencia en que las leyes científicas serán válidas en el futuro. John Stuart Mill llamó a esta asunción el principio de la uniformidad de la naturaleza.18​

Dado que ambas son utilizadas, ya sea explícita o implícitamente, en forma generalizada para proponer hipótesis —ya sea formales o no— a partir de observaciones empíricas, su cuestionamiento pone en duda una gran parte, si es que no la totalidad, del conocimiento humano. El problema adquiere especial relevancia en el ámbito científico, dado que generalmente se pensaba que las asunciones necesarias para formular leyes científicas requieren tanto generalizaciones como expectativas de que eventos en el futuro continuarán exhibiendo los mismos comportamientos que en el pasado.19​ Esto se expresa generalmente como el principio de simetría20​21​22​ o principio de invariancia23​ (véase también principio de Curie24​ y teorema de Noether).


Consecuentemente Alfred North Whitehead describió la inducción como «el rompecabezas (the despair) de la filosofía»25​ y el filósofo C. D. Broad sugirió: «La inducción es la gloria de la ciencia, y el escándalo de la filosofía».26​


Según el sentido de la teoría de la justificación la ciencia ha de consistir en proposiciones probadas.27​ El experimento no es una verificación de la teoría que lo sustenta, como mostró Popper desnudando el problema de la inducción.28​ Por otro lado, las inferencias lógicas transmiten la verdad, pero no sirven para descubrir nuevas verdades.29​ Las teorías generales no son directamente contrastables con la experiencia, sino solamente mediante casos particulares, con soluciones específicas mediante teorías específicas, como modelos teoréticos. Cuanto mayor sea la lógica que detente una teoría, menor será la contrastabilidad empírica. Esto quiere decir que teorías tan generales como la teoría de la información, mecánica clásica o mecánica cuántica solo pueden ser contrastadas respecto a modelos teóricos específicos en el marco de dichas teorías, teniendo en cuenta que no siempre es posible saber qué es lo que hay que corregir en el modelo cuando el contraste empírico fracasa o, si por el contrario es la propia teoría general la que contiene el error,30​ teniendo muy presente la dificultad de poder asegurar que el valor de los datos manejados y obtenidos sean los correctos. Por ello la filosofía de la ciencia adquiere un carácter de investigación científica muy importante.31​32​

Problema de la deducción

Esta sección es un extracto de Problema de la justificación de la deducción[editar]

El problema de la justificación de la deducción es el problema de la filosofía de la lógica acerca de cómo justificar los métodos deductivos propios de las ciencias formales, suponiendo que necesitan ser justificados. Este problema presenta un desafío a varios tipos de justificación a priori y constituye un desafío para los proponentes de dicha justificación.


Suponga que la proposición «la vida extraterrestre existe o no existe» está justificada a priori. No se necesita recorrer el universo para saber que esa proposición es verdadera. Sin embargo, según las técnicas estándar de la lógica contemporánea, si se quiere demostrar la verdad de esa proposición, se debe demostrar que bajo cualquier interpretación de las partes de la proposición, la proposición completa resulta verdadera. Pero este proceso de demostración supone, necesariamente, la validez de al menos una regla de inferencia, generalmente el modus ponens. Pero para demostrar la validez del modus ponens, es necesario recurrir al modus ponens, o a reglas de inferencia cuya validez se demuestra por medio del modus ponens. Luego, parece imposible dar una justificación última de la verdad de la proposición.


En 1895, Lewis Carroll publicó un breve ensayo titulado Lo que la tortuga le dijo a Aquiles, donde por medio de un diálogo entre estos dos personajes, expone un problema de justificación de la deducción. Carroll observa que para aceptar la verdad de una conclusión basada en un argumento deductivo, es necesario aceptar tanto la verdad de las premisas como la validez del argumento. Sin embargo, la validez del argumento puede ser considerada una premisa adicional, que debe por lo tanto sumarse a las premisas que ya se tenía. Pero esto genera un nuevo argumento, distinto al anterior, con n + 1 premisas, y si se quiere aceptar la conclusión original con base en este nuevo argumento, entonces debe aceptarse que el nuevo argumento con n + 1 premisas es válido. Pero aceptar esto, otra vez, es introducir una nueva premisa, que genera un argumento con n + 2 premisas, distinto al anterior. Y así ad infinitum.


En un artículo de 1976, Susan Haack revela varios paralelismos entre el problema de la justificación de la deducción y el problema de la inducción.33​ Según Haack, tanto la inducción como la deducción se pueden justificar deductivamente o inductivamente.33​ En el caso de la inducción, una justificación deductiva resultaría demasiado fuerte, porque mostraría que siempre que las premisas sean verdaderas, la conclusión también lo será, y una justificación inductiva resultaría circular.33​ Análogamente, en el caso de la deducción, una justificación inductiva resultaría demasiado débil, porque mostraría que casi siempre que las premisas sean verdaderas, la conclusión también lo será, mientras que una justificación deductiva resultaría circular.33​


Paul Boghossian, en su trabajo titulado Knowledge of Logic, menciona otro posible camino de justificación para la deducción: el camino no inferencial, según el cual es posible algo así como una intuición racional de la verdad de las bases de la deducción (Boghossian se refiere en particular al modus ponendo ponens).34​ Este camino, dice, aunque ha sido históricamente influyente, parece más un nombre para el problema que una solución a él.34​

Teorías del conocimiento

Ante la posibilidad del conocimiento existen distintas aproximaciones:


El realismo es una doctrina filosófica según la cual el conocimiento humano está regido por el ser de las cosas. La verdad de una proposición depende de que tal proposición se adecúe al estado de las cosas. Esta doctrina fue defendida por Aristóteles, santo Tomás de Aquino y muchos otros autores.

El dogmatismo es una doctrina filosófica según la cual podemos adquirir conocimientos universales, y tener plena certeza de ello. Puede haber también un dogmatismo de la experiencia, como el que se dio entre estoicos, cínicos y epicúreos, que niegan la validez de afirmaciones universales pero afirman la certeza completa de la experiencia sensible. A este dogmatismo empirista se opusieron fuertemente dos académicos, Arcesilao y Carnéades, y el más famoso escéptico, Sexto Empírico.

El escepticismo es una teoría filosófica opuesta al dogmatismo la cual duda de que sea posible un conocimiento firme y seguro, en algunos ámbitos del saber (un escepticismo más moderado) o en todos (un escepticismo radical). Esta postura fue defendida por Pirrón.

El criticismo es una doctrina filosófica intermedia entre el dogmatismo y el escepticismo, admite la existencia de la verdad absoluta, y la posibilidad de acercarnos a ella mediante la crítica: es decir, la eliminación de hipótesis falsas, otorgándonos verdades provisionales. Cualquier verdad provisional sigue estando sometida a la falsabilidad, de tal forma, que jamás exista la certeza de que una verdad provisional sea verdad absoluta. Tal doctrina fue defendida por Immanuel Kant.

El relativismo es una corriente de pensamiento filosófica, defendida por los sofistas, que niega la existencia de una verdad absoluta y defiende la idea de que cada individuo posee su propia verdad, la cual depende del espacio y el tiempo. Un prototipo de sofista, al menos como lo presenta Platón, sería Protágoras de Abdera.

El perspectivismo es una doctrina filosófica que defiende la existencia de una verdad absoluta pero piensa que ninguno de nosotros podemos llegar a ella sino que llegamos a una pequeña parte. Cada ser humano tiene una vista de la verdad. Dicha actitud fue defendida por José Ortega y Gasset.

El racionalismo de René Descartes proponía que los seres humanos nacían con ideas, tales como la idea de Dios, y que el conocimiento proviene del razonamiento.

El empirismo fue desarrollado por los filósofos ingleses John Locke, George Berkeley y David Hume, los cuales, basándose y siguiendo las enseñanzas de Aristóteles, sostienen que todo conocimiento proviene de la experiencia, y que el hombre es al nacer una tabula rasa, es decir, como una tabla lisa, sin ninguna idea preconcebida y en la cual las experiencias van dejando su marca, al contrario de lo que sostenía Descartes.

El idealismo desarrollado en 1781 por el filósofo alemán Immanuel Kant; publica la Crítica de la razón pura, una obra muy influyente en la que critica tanto al racionalismo como al empirismo y propone una alternativa superadora: el idealismo trascendental. Con ello propuso un "giro copernicano" en la filosofía moderna, donde el sujeto ya no es pasivo frente al mundo, sino que pasa a ser un sujeto activo que "construye" el objeto de su conocimiento. De este modo, Kant propone que el mundo nouménico permanece incognoscible para el sujeto, que solo puede conocer el mundo fenoménico, mediado por las intuiciones puras del espacio y el tiempo, las categorías del intelecto y las ideas regulativas de la razón. A partir de entonces, la gnoseología ha intentado volver a recuperar el conocimiento del mundo. La obra de Kant dio inicio al idealismo alemán, escuela que tuvo a sus mayores exponentes, además del propio Immanuel Kant, en Johann Gottlieb Fichte, Friedrich Wilhelm Joseph von Schelling y Georg Wilhelm Friedrich Hegel.

El constructivismo es una doctrina filosófica según la cual el sujeto "construye" estructuras que representan la realidad dentro de sí mismo, a partir de su interacción con los objetos, de tal manera que no es solo la experiencia pura lo que crea el conocimiento, sino la transformación de las estructuras por el sujeto (ver Estructuralismo). Jean Piaget desarrolló su teoría del constructivismo genético, con la cual busca dilucidar la "génesis" de las estructuras en el individuo, a partir de la observación de niños desde su nacimiento hasta la adolescencia. Los principios de esta construcción de estructuras son la asimilación y la acomodación, conceptos que Piaget tomó de la biología.

El materialismo dialéctico es una postura filosófica, desarrollada por Karl Marx y Friedrich Engels, que retoma el pensamiento dialéctico de Hegel, pero "dándole vuelta". Según estos autores, existe una realidad material independiente de los sujetos, pero que solo es comprendida por la actividad de los hombres. Es decir, que la realidad solo es realidad porque es mediada por la práctica de los hombres concretos. La idea de que el hombre construye la realidad, no obstruye que el hombre pueda conocer la realidad tal cual es, sino todo lo contrario, solo así puede conocer tanto la realidad humana creada como la naturaleza.

El objetivismo randiano es el sistema filosófico desarrollado por la filósofa y novelista Ayn Rand. Sostiene que existe una realidad independiente de la mente humana, que los individuos están en contacto con ésta a través de la percepción de los sentidos, que adquieren conocimiento procesando los datos perceptivos utilizando la razón (o la "identificación no-contradictoria"). Esta teoría parte de los principios de la lógica y metafísica aristotélicas.

Fenomenología

Dentro de la gnoseología, una parte importante, que algunos consideran incluso una rama independiente de la filosofía,35​ es la fenomenología. La fenomenología es el estudio de los fenómenos, es decir de la experiencia de aquello que se nos aparece en la conciencia.35​ Más precisamente, la fenomenología estudia la estructura de los distintos tipos de experiencia, tales como la percepción, el pensamiento, el recuerdo, la imaginación, el deseo, etc.35​ Algunos de los conceptos centrales de esta disciplina son la intencionalidad, la conciencia y los qualia, conceptos que también son estudiados por la filosofía de la mente.35​


Límites del conocimiento

Trilema de Münchhausen

Esta sección es un extracto de Trilema de Münchhausen[editar]

Este artículo o sección necesita referencias que aparezcan en una publicación acreditada.

Este aviso fue puesto el 1 de diciembre de 2015.


El barón de Munchausen se saca del lodo tirando de su propio pelo.

El trilema de Münchhausen o trilema de Agripa es un ataque a la posibilidad de lograr una justificación última para cualquier proposición, incluso en las ciencias formales como la matemática y la lógica.


Un trilema es un problema que admite sólo tres soluciones, todas las cuales parecen inaceptables. El argumento discurre así: cualquiera que sea la manera en que se justifique una proposición, si lo que se quiere es certeza absoluta, siempre será necesario justificar los medios de la justificación, y luego los medios de esa nueva justificación, etc. Esta simple observación conduce sin escape a una de las siguientes tres alternativas (los tres cuernos del trilema):36​


Una regresión infinita de justificaciones: A se justifica por B, B se justifica por C, C se justifica por D, etc. La necesidad de remontarse cada vez más en la búsqueda de fundamentos, un proceso sin fin irrealizable que no provee ningún fundamento seguro.

Un corte arbitrario en el razonamiento: A se justifica por B, B se justifica por C, y C no se justifica. Esta última proposición se puede presentar como de sentido común o como un principio fundamental (postulado o axioma), pero en cualquier caso representaría una suspensión arbitraria del principio de razón suficiente recurriendo a un dogma.

Una justificación circular: A se justifica por B, B se justifica por C, y C se justifica por A. En el proceso de justificación se recurre a enunciados que ya antes se habían mostrado como enunciados que requieren justificación y por lo tanto sin llegar nunca a una justificación segura por ser lógicamente defectuosa.

Historia

Este artículo o sección necesita referencias que aparezcan en una publicación acreditada.

Este aviso fue puesto el 21 de agosto de 2012.

Edad Antigua

La investigación sistemática del conocimiento comienza en la Antigua Grecia, especialmente con el diálogo platónico Teeteto, aunque también en la República (VI). Aristóteles dedica parte de su trabajo titulado De Anima a explicar el conocimiento "empírico", el que se obtiene a través de los sentidos, y en la Metafísica dedica el libro IV (especialmente el capítulo 4 y ss.) a discutir cuestiones como la prueba de los primeros principios y el relativismo. En los Segundos analíticos (o Analíticos posteriores) presenta lo que puede considerarse como su epistemología. Para estos dos autores, solo podía haber conocimiento que llegue a ser ciencia de lo inmutable: para Platón las Ideas, y para Aristóteles las sustancias (también las sustancias separadas). En el período helenístico el pirrónico Sexto Empírico ofrece la expresión más completa y sistemática del escepticismo antiguo.


Edad Media

En el mundo cristiano antiguo y en la Edad media se elaboraron diversas doctrinas sobre el conocimiento humano. San Agustín pensó en la necesidad de una iluminación divina que garantizase la verdad de nuestras afirmación. Santo Tomás de Aquino, por su parte, recoge ideas de Aristóteles y elabora una completa teoría del conocimiento, que critica el ultrarrealismo (por ejemplo de Guillermo de Champeaux), el representacionismo y el nominalismo -o verbalismo- (de Roscelino).


Renacimiento

Con el Renacimiento comenzó un período de intenso desarrollo de la gnoseología, que marcará toda la modernidad. La invención de nuevos instrumentos de observación, como el telescopio, ayudaron al desprendimiento de los cánones (principalmente Aristóteles y la Biblia) a la hora de fundamentar el conocimiento.


Edad Moderna

En el siglo XVII, el inglés Francis Bacon escribe Advancement of knowledge y Novum organum, donde reclama el apoyo de la monarquía para impulsar el conocimiento de tipo empírico. La tradición empirista encontraría a sus principales defensores en John Locke, David Hume y George Berkeley. Locke se ocupó de estas cuestiones en su obra Ensayo sobre el entendimiento humano; Berkeley sigue parcialmente a Locke en su Tratado sobre los principios del conocimiento humano, de 1710; y Hume, hizo lo propio en la primera parte de su Tratado de la naturaleza humana y en su Investigación sobre el entendimiento humano.


Por otro lado, el francés René Descartes publica en 1637 el Discurso del método y en 1641 las Meditaciones metafísicas, obras en gran parte dedicadas a plantear y resolver los problemas fundamentales de la teoría del conocimiento. Descartes introduce la duda metódica como método racional para obtener conocimiento seguro, y dio inicio a la tradición racionalista, que será continuada por Spinoza y Leibniz, entre otros.


Ya en el siglo XVIII, en 1781, el alemán Immanuel Kant publica la Crítica de la Razón Pura, una obra muy influyente en la que critica tanto al racionalismo como al empirismo y propone una alternativa superadora: el idealismo trascendental. Con ello propuso un «giro copernicano» en la filosofía moderna, donde el sujeto ya no es pasivo frente al mundo, sino que pasa a ser un sujeto activo que «construye» el objeto de su conocimiento. De este modo, Kant propone que el mundo nouménico permanece incognoscible para el sujeto, que solo puede conocer el mundo fenoménico, mediado por las intuiciones puras del espacio y el tiempo, las categorías del intelecto y las ideas regulativas de la razón. A partir de entonces, la gnoseología ha intentado volver a recuperar el conocimiento del mundo. La obra de Kant dio inicio al idealismo alemán, escuela que tuvo a sus mayores exponentes en Johann Gottlieb Fichte, Friedrich Schelling y Georg Wilhelm Friedrich Hegel.


Edad Contemporánea

A principios del siglo XX, Husserl propuso un retorno "a las cosas mismas", expresión con la que quedó fundada la fenomenología, que sería continuada, de distintos modos, por Heidegger, Sartre y Merleau-Ponty, entre otros.


En la filosofía analítica, por el contrario, a mediados del siglo XX se inició a partir de un breve artículo de Edmund Gettier una tradición de análisis del conocimiento en términos de atribuciones de conocimiento, retomando las tres características que señalara Platón para todo conocimiento: que sea una creencia, que sea verdadera y que esté justificada. A partir de este análisis estándar han surgido a principios del siglo XXI diversas teorías sobre las atribuciones de conocimiento como el invariantismo, el invariantismo sensible,37​ el contextualismo38​ y el relativismo.


En 1963, Frederic Fitch publica un trabajo en lógica epistémica en el que demuestra que dados ciertos supuestos básicos, "si toda verdad se pudiera conocer, entonces toda verdad sería conocida". Pero como no toda verdad es conocida, se sigue que no es posible conocer todas las verdades. Esta paradoja se conoce hoy como la paradoja de la concupiscibilidad de Fitch (Fitch's Paradox of Knowability).39​


Paralelamente, desde mediados del siglo XIX, quizá empezando con las reflexiones metodológicas del astrónomo británico William Whewell, como a lo largo del siglo XX, se dedicaron muchos esfuerzos filosóficos al estudio del conocimiento científico, dando lugar a la filosofía de la ciencia. Este tipo de estudios pronto se ven complementados con otros sobre la historia de la ciencia, y más tarde, la sociología de la ciencia.

Entradas populares