Emergentistas, fisicalistas..., muchos han querido teorizar sobre cómo sería una inteligencia artificial, qué repercusiones tendría de cara al conocimiento científico - si éste dejaría de ser circular, como defendía Gustavo Bueno y, de ahí, que todo lo pudiera explicar y saber un ordenador. Bien, pues voy a rescatar la reflexión que hizo Davidson en 1973 sobre "the material mind".
Creo que es fundamental comprender cómo hemos llegado hasta aquí y cuánto hay que tener entendido para lanzar las preguntas pertinentes. Por ejemplo, a día de hoy que haya gente que se plantee si la tierra es plana suena a fracaso en la educación general básica; a porqué debería de haber un sistema educativo público y de calidad. Pues bien, en el caso de la cuestión: ¿qué pasaría si realmente se alcanzara la singularidad en la que una máquina fuera sustituible intelectualmente a cualquier humano: significaría que la psicología puede ser descrita a partir de las leyes de la física?
En otra entrada ya mencioné los problemas que subyace una respuesta de esta pregunta a favor del fisicalismo, a favor de creer que la física es el germen causal de todas las ciencias. Pero esta vez reincidiré en algo más que un mero párrafo.
Recuerdo el día que tuve que entrar en la facultad de veterinaria. Andando por los pasillos, creo recordar que para buscar el servicio de reprografía, fui leyendo las etiquetas de las distintas secciones y especialidades. Y una de ellas ponía algo así como psicología perruna, prevención contra el suicidio perruno, y cosas así. Es decir, me pareció muy chocante que tuvieran asignaturas o especialidades de varias asignaturas para ese tema. Tampoco entendía por qué esas etiquetas estaban puestas, si eran departamentos, servicios técnicos...
En cualquier caso está claro que lo primero que se me cruzaba por la mente era: si realmente los perros tienen que ser tratados psicológicamente, ¿quién debe encargarse? ¿los psicólogos, los biólogos o los veterinarios?
Bien pensado, el psicólogo se ha especializado desde el comienzo en el comportamiento humano, pasarse a extenderlo a lo perruno sería sesgado - como intentar entender cómo es un perro a partir de cómo es una persona.
Si, por otro lado, le achacamos la especialidad a los biólogos sería como decir que todos los asuntos perrunos se explican por la teoría de la evolución, por su relación con el resto de las especies. Como si fueran máquinas, entenderíamos su complejidad dentro de la maquinaria biológica en un biosistema. Sin embargo, ¿por qué un perro se va a suicidar según las reglas de su biosistema si hablamos de un animal de compañía? Es decir, el biólogo no parece la persona más adecuada para tratar estos temas.
La cosa es que me paré a pensar, si bien fuera necesaria una carrera específica para este tema, o meter la especialidad en una existente, entonces el punto de partida debía ser veterinaria. Esto es debido a que el veterinario ya tiene un historial de relaciones con los perros y los humanos, así como está obligado a conocer la realidad biológica del perro y cómo piensa por dentro.
Con estas ideas en mente volvamos a Donald Davidson y su cuestión.
El punto de partida de D.D. empieza siendo erróneo: su pregunta parte de si las máquinas ya fueran capaces de alcanzar la calidad artística humana hasta el punto de que los humanos creyeran que lo que venga de ellas es propio de humanos..., este punto de partida ya es un problema.
Si las máquinas alcanzaran en su tecnología la singularidad de superar al ser humano, entonces esos resultados se alcanzarán en los prototipos alfa - es decir, los informáticos y demás técnicos sabrán de ese resultado antes que el resto de la sociedad. Sin embargo, en cuanto se comparta la tecnología aparecerá una singularidad beta: que es la que se produce cuando la sociedad conoce de estos hechos. Esta singularidad es diferente debido a que si un humano sospecha que una obra podría ser de una máquina entonces también cuestionará la humanidad de las propias obras humanas.
Esto se entiende mejor con los actuales torneos de ajedrez: cuando las máquinas no jugaban mejor que los maestros era difícil hacer trampas, pero con la llegada de esos módulos que superan a los humanos y los torneos telemáticos automáticamente aparece en los propios jugadores un halo de sospecha por si le están haciendo trampas - precisamente por jugar demasiado bien.
Por eso, la idea de la singularidad beta lo que nos dice es que cuando se alcance entonces el comportamiento humano, las relaciones, la manera de ver el mundo, todo cambiará. Lo que quiere decir que cuanto mejor trabaje la máquina más difícil será el comportamiento humano. O, dicho sea de paso, el estudio del comportamiento seguirá siendo esquivo precisamente porque la máquina es demasiado inteligente como para dejar que lo atrape.
Por otro lado, alguien podría preguntarse cómo sería la relación entre psicología y física en la singularidad alfa, como si los técnicos mantuvieran el proyecto en secreto para así poder estudiar la raza humana sin su consentimiento.
Este otro enfoque nos lleva a otra limitación que, igual que un terraplanista desconoce con respecto a cómo rotan las estrellas, según parece no se entiende sobre la idea de "implementación", sobre lo que es constructible.
Decimos que una cosa justifica a otra cuando es capaz de construir tal justificación; en informática a eso se le llama "computable" ¡Tantas veces lo habré explicado en este blog! Se puede leer en las mismas páginas.
La cosa es que si la psicología fuera constructible a partir de la física entonces todo lo que tiene que ver con la psicología humana debería de ser constructible; de la misma manera, alguien diría: si la máquina es capaz de ejecutar unos programas (ya construidos) que genere de manera "fuerte o débil" la inteligencia humana entonces será que la inteligencia sí es constructible... Y no es así. Ése es el problema.
El problema de la consciencia no tiene que ser de la clase de los enumerables y, al mismo tiempo, tampoco tiene que ser considerado inabordable como para no poder innovar en su ámbito de aplicación. Es decir, algo que caracteriza a las criaturas conscientes no es precisamente que actúen de manera perfecta, sino más bien que sus comportamientos tienen siempre alguna clase de mácula. Por tanto la consciencia no es un problema necesariamente lógico, no tiene que ser enumerable para decir que un sistema de información la tiene.
Así, visto de esa manera, parecería que con tener una aplicación que dé el pego ya podríamos decir que esa consciencia rudimentaria cumple los objetivos. En este blog hablé de un test de la consciencia, lo que quiere decir que con sólo superar un test sería suficiente como para darle certeza en un ámbito intelectual - para compararlo con los humanos, o lo que se esté buscando. Dicho de otra manera, lo que tiene que funcionar, lo que ha evolucionado para que sea innovador, no tiene que ser un producto constituido de manera independiente al contexto y, por tanto, no tiene porqué cumplir que sea capaz de conectar las ciencias naturales con las ciencias sociales.
Si por necesidad la consciencia siempre actuara de una única manera bien definida entonces el comportamiento (la ciencia social) sería perfectamente explicable desde la tecnología (ciencia natural). Pero como no se da el caso, porque el comportamiento depende del contexto, y el contexto es tan imperfecto como la solución que supone una mejora desde un punto de vista que suele ser también relativo..., entonces no hay manera de asegurar que una cosa explique a la otra.
Por tanto, ante la cuestión de Davidson la respuesta es NO, las ciencias sociales siempre serán una cosa y las ciencias naturales otra por muchas singularidades que viva la humanidad con su tecnología.
Al fin y al cabo tendríamos una última singularidad: la singularidad omega. En ésta nos valemos de los conocimientos en conexión y conectividad para entender de dónde saca el hombre sus ideas y cómo atribuirlas a las señales eléctricas o químicas que usa. En este nivel de singularidad nos imaginamos un mundo donde al terraplanista parecería que con sólo darle una pastilla comprendería por qué se equivoca. Y ese mundo sería muy parecido, en principio, a GATACCA.
Si se quiere enfocar esa realidad nos daremos cuenta de que los propios humanos no querrían entrar en el juego de tener genes perfectos, los cuales son perfectos para evitar enfermedades; ni tampoco querrían entrar en el juego de ser clasificados de nacimiento, lo cual es más eficiente y mejor para todos. El problema es esa palabra: mejor para todos. O esa otra: evitar enfermedades ¿No es una enfermedad estar tan sano como para replicar tu genética artificiosamente destruyendo a tus primos en un mismo tejido? A ese comportamiento le atribuimos un carácter vírico.
En definitiva, cuando se alcanza la singularida omega observamos que el cambio social y la revolución se intensifica más allá de lo que hoy día podríamos imaginarnos. No podemos ponernos en la piel de quien viva esa realidad y, por otro lado, tampoco podemos decirle a un informático que sea capaz de alcanzar la singularidad cómo interpretar su trabajo. Porque es como si al veterinario el biólogo o el psicólogo le cuestionaran su papel de cara a los suicidios perrunos.