A cualquier filósofo o lógico que le preguntes te dirá que la exactitud es un término cualitativo y, por tanto, no puede ser que haya dos ideas que sean exactas y se contradigan entre sí en algún sentido. Sin embargo la realidad es mucho más compleja que esa apreciación, como vengo diciendo en este blog.
No supone sucumbir a la locura creer que es factible encontrar distintas filosofías exactas, como entrando en contradicción sin perder su carácter exacto. Sin ir más lejos se puede crear una escala de niveles de exactitud que nos permita entender este concepto mucho mejor.
Esta entrada, de haberla tenido más clara, la habría conectado con la entrada anterior - sin embargo las cosas están así: no es fácil de explicar por un lado, y tampoco es cierto que yo lo tenga todo perfectamente atado. Es fácil ser coherente y ver cómo todo encaja, pero siempre es posible que falte algún desarrollo interesante y no es bueno tomarse estos temas a la ligera.
Uno de los primeros temas a tener que desarrollar cuando se crea un buen sistema de información es la idea de contradicción. La cosa es que en informática ya se ha dado por válido, y es ortodoxo, que dos afirmaciones son contradictorias cuando es difícil encontrar a ambas en un mundo posible - no se le da un carácter formal a la idea de contradicción, porque no es útil. Pues bien, es cuestión de usar la lógica: si existen varias ideas de contradicción también existirán varias ideas de exactitud, porque formalmente se establece esa biyección. Es decir, una idea de contradicción nos lleva a una idea de similitud y de exactitud en cuanto a esa similitud. Si admitimos que la frase "Pedro vendió la casa de la esquina" contradice a "Pedro vive en la casa de la esquina" eso es porque no admitiríamos que Pedro pueda seguir viviendo en la casa que ha vendido, o que luego recuperó..., pero la razón por la que decimos que contradice es porque desde el punto de vista de la utilidad de una búsqueda nos interesa la información más probablemente útil - para hacer una buena selección de la información a estudiar. Por eso la idea de contradicción, y de implicación, debe ser probabilística - laxa.
El estudio de los modos nos lo da la lógica modal, donde se nos habla de afirmaciones necesarias y contingentes..., y habrá que jugar con esos conceptos para hablar de lo probablemente necesario para poder trabajar de manera mucho más práctica. Por ejemplo, si nos pregunta nuestro general si el camino está despejado lo que nos pregunta es si existe un contingente que haya que tomar en cuenta. Tan pronto como le digamos que técnicamente está despejado habremos cumplido el objetivo, porque luego nos preguntará de manera "más exacta" a qué nos referimos con "técnicamente", y entonces mencionaremos a un soldado borracho en mitad del camino. El soldado borracho no será un contingente, pero había que mencionarlo...
Por eso hay una primera búsqueda que nos da la adquisición más básica de la idea a compartir. La gran compañía nos ofrece las páginas que probablemente estemos buscando, luego ya haremos click más probablemente en las primeras - que encajarán con las que les da mejor espina.
En definitiva, realmente es cierto que trabajamos con diversas exactitudes. Y el hecho de que no se diga abiertamente bien podría considerarse un tanto sospechoso.
Así que empezaré con la primera de las apreciaciones: la mayor de las exactitudes es una abstracción que usamos como referencia, que es la idea del "uno", el primer símbolo que es la definición de lo que es la exactitud en sí. Por lo que lo más exacto es cualquier cosa que nos lleve a ese símbolo.
Se trata de la filosofía conectivista, la que mediante la construcción expresa de la máquina se generan las aplicaciones. En este punto siempre existen diversos tipos de imprecisión: como qué ocurre si nuestro sistema axiomático no se ha demostrado que sea relevante dentro de la utilidad que esperamos que tenga, si es coherente en sí mismo, si con ese mismo esquema es posible construir afirmaciones que dentro de ese lenguaje no se podrán demostrar o que, aun siendo demostrables, los mecanismos de demostración trasciendan a la capacidad formal que disponga el sistema para obligar a usar mecanismos empíricos o formales de otros esquemas aceptados ajenos al sistema.
Hasta ese punto tenemos la idea de exactitud más elevada: la que nos dice que aseveramos todo lo que deducimos aun no teniendo un lenguaje tan completo como la lógica formal de primer orden (como demostró Gödel), o no tan relevante como la lógica de segundo orden (que no es completo, porque se vuelve incoherente si le incorporamos la capacidad para decidir sobre sí misma como demostró Gödel).
Ahora le vamos a añadir un grado de imprecisión, si perder el formalismo exacto; es en este punto donde nos metemos en la filosofía conexionista, el deep learning, los formalismos matemáticos y los símbolos que no son enumerables: establecemos que las demostraciones no tienen que reducirse a lo constructivo, y aceptamos refutaciones aun no creando con ello una máquina.
Una apreciación de este formalismo lo tenemos en la demostración de la NP-completitud de Cook: observamos que parte de un lenguaje L con el que se plantea un problema y que, una vez resuelto en una máquina de Turing, habremos tardado un tiempo T: ni L ni T están definidos explícitamente, solo sabemos que L debe ser representable en una máquina de Turing, y que T debe estar acotado polinomialmente para determinar que L plantea un problema NP. El hecho de que no sepamos el valor y lo usemos para crear la máquina es un formalismo; se dice que debe existir una máquina, pero no nos ayuda a decidir cuál es. Es decir, no se asegura una correspondencia entre la entrada de la que se parte y la creación de la máquina: por lo que realmente esa demostración no es constructivista.
Otro formalismo es del que me valgo para responder la pregunta de si la clase NP coincide con la clase P: creo un manual de instrucciones que es una configuración de una máquina de Turing, pero parto de un formalismo, la idea de que las fórmulas que resuelve tendrán un número máximo de variables; por lo que para cada entrada existirá una gran cantidad de manuales que resolverán en tiempo polinomial el problema, y solo ayudo a decidir cómo construir la máquina en la medida en la que se asegure que la entrada no supere a un cierto número de variables - sabiendo que el número de variables puede ser indefinidamente tan grande como quieras. La conclusión final sería que sí es cierto que existe una configuración de máquina de Turing que te dice para cada problema NP cuántos casos cumplen la solución en un tiempo lineal, pero combinándolo con resultados constructivistas, deducimos que esa configuración no es P-reducible (decidible en tiempo polinomial). Es la diferencia entre una máquina de Turing explicado como un manual a una máquina de Turing explicada por engranajes.
Las diferentes apreciaciones de exactitud en los formalismos que se aprecia se generan por la presunción que le damos a las variables: en el caso de Cook su variable debe estar acotada polinomialmente, en mi caso la variable debe estar acotada por el infinito. Por lo que mi formalismo es más exacto y la demostración de Cook puede valerse de mi resultado, al ser más exacto.
Otros resultados que aporto cuestionan los planteamientos de Cook y Fagin porque si coinciden es solo en apariencia. Es decir, hago una crítica a esos documentos que tienen más de cuarenta años, que no han generado ninguna máquina - salvo de casualidad, y ha congelado la informática por muchos años con ideas que no van a ninguna parte. Y que, incluso, están llenas de errores teóricos. Ese artículo fue lo último que le pedí a Nature que me lo publicara, y lo único que he conseguido es un DOI, pero de revisión de pares luego ya eso...
Llegados a este punto podemos ya hablar de las imprecisiones provenientes del teorema central del límite y la matemática aplicada, que ya no usa la palabra exactitud en sí, aunque se vale de criterios de calidad que la sustituyen. No hay que olvidar que el propio Wittgenstein consideraba que la ciencia, en su empiria, podía albergar la suficiente certeza como para competir con las matemáticas mismas. Y es que existe una idea de exactitud en la precisión de una idea: la idea de que mañana el sol no implosionará es una idea con la suficiente exactitud como para darle el mismo crédito, aunque solo sea una evidencia resultado de la empiria.
Es en este tercer nivel como trabaja el estudio de probabilidades, para no necesitar etiquetar como probable lo que suene absurdo cuestionar dentro de su marco de trabajo. Lo incuestionable es otra forma de exactitud, aunque no se admita. Y cada vez que observamos a un científico negar que otro lo sea en realidad lo que está haciendo en valerse de su idea de exactitud, a este nivel, para postular cómo debe hablar alguien que piensa como él. Los postulados, en definitiva, consisten en un compendio de resultados empíricos interpretados de manera que se ignore lo que complica innecesariamente el modelo. Pero, al mismo tiempo, existe una gran cantidad de postulados que se pueden aceptar o rechazar: a cada una de esas filosofías científicas (de tercer nivel) se le suele llamar paradigmas, tal como los describió Kuhn.
Muchos religiosos gustan de cuestionar el papel importante que tiene la ciencia para el pensamiento, debido a que existen los paradigmas científicos, debido a que un postulado hoy puede ser una afirmación cuestionable mañana. Me resulta obvio que no entienden la gran diferencia entre la religión y la ciencia, y esa diferencia no tiene nada que ver con la precisión de las ideas, la exactitud, etc... Lo que diferencia al científico del religioso es el rito: la creencia de que un rito es lo que le da el conocimiento, cuando el propio científico no se rige por la rectitud de un método material. Un rito no es un concepto como el método científico: es un procedimiento material con un cierto nivel de exactitud, como repartir pan para entrar en comunión con una divinidad creadora de todo el Universo. Un método científico puede ser colocar el matraz delante de un microscopio preocupándose hasta de la temperatura del laboratorio; otro método podría cuestionar el que se hagan cosas de más o de menos.
La cosa es, ¿qué inspira más confianza a la hora de ejecutar sus métodos? ¿El que los mantiene sin ninguna evidencia de que funcionen o el que constantemente lo cuestiona y, aun así, sobrevive el método?
El asunto es que en ocasiones nos encontramos a profesionales que se valen de su titulación para adulterar la ciencia; y esto encaja mucho con el conexionismo. Podemos hablar del psicoanálisis de Freud, y de cómo la interpretación de los sueños eran tan adhoc que sonaba imposible repetirlos. Es decir, al ser todo lo que hacía Freud tan anticientífico él se disculpaba diciendo que a él le funcionaba.
De la misma manera observamos otra clase de científicos que se han valido de la imprecisión para salirse con la suya: la ciencia de la interpretación de las leyes fue paulatinamente sustituida por una suerte de arte que pretendía marcarse fines ideológicos. Ahora bien, ¿de qué nos sirve un jurista que en vez de darnos la interpretación de la ley nos vende una propaganda?
Esto mismo ha sucedido de manera mucho más evidente en economía, tras el fracaso de Marx de ensalzar sus modelos de manera objetiva para ver cómo Engels trasladaba el movimiento hacia lo ideológico, nacería en los detractores de Marx, como podría ser Mises, exactamente esa misma doctrina: anteponer la propaganda por encima del estudio del modelo científico que debe estar detrás de la economía.
Esas imprecisiones hacen que sea imposible hablar de exactitud, porque es sustituido por las voluntades de las personas. Y esas voluntades no son en absoluto deseables: si quiero que la economía funcione no necesito que un señor quiera imponer sus deseos a la voluntad de un colectivo. Más bien, esa clase de "voluntades" es la parte que, cuanto más arrinconada, mejor. O, dicho de otra manera, la victoria de las voluntades por encima de lo objetivo es lo que ha definido el corporativismo que vivimos hoy día y que nos conduce a la idiocracia.
Si el lenguaje humano se hubiera pensado para elevar nuestras voluntades entonces se debería interpretar como un instrumento de guerra. Se supone que la voluntad es un escarabajo que se tiene que quedar dentro de su caja, porque es propia de cada uno, no es un asunto público.
Vivir en la penuria de un caos continuo e incesante nos lleva a la incapacidad para ser precisos, y la incapacidad para entender que en cada filosofía la exactitud es siempre solo una. Porque cada filosofía contiene su propio marco con el que se trabaja, y no se puede cambiar de marco como no se puede cambiar de idioma: si el mensaje está en uno en concreto, cada idioma tendrá distintas mentalidades o marcos, pero deberá exponerse dentro de una idea única de organización mental.
Otra cosa es que nos volvamos políglotas, que es el equivalente a percibir distintas formas de exactitud.
Sin ir más lejos, la idea de trabajar en virtud de lo que funciona es una filosofía que encaja con el conexionismo. Y todo lo que funciona bien en el conexionismo es susceptible de ser aceptado por cualquier apreciación científica. Ahora bien, ¿por qué lo que fue la excusa de Freud es un planteamiento válido en el conexionismo? Porque Freud jamás pudo explicar a la prensa qué significaba que él mismo se soñara a sí mismo fumando en pipa; trabajar con formalismos exige ser coherente a la hora de dar la misma respuesta ante las mismas situaciones, al menos de manera confiable. Eso es algo que llamé "el criterio del profesional" en mi primer libro "Satisfiabilidad lógica resuelta"... Y eso es algo que el psicoanálisis nunca supo ofertar.