El test de Turing y sus cantinelas, de eso va esta entrada.
Primeramente quisiera poner al personal en contexto: ¿qué es el test de Turing?
El test de Turing es un examen lógico al que es sometida una máquina a través del cual, mediante doble ciego, se somete a un humano a examen sobre el cumplimiento de un concurso basado en hacerse pasar por un hombre o mujer cuando se es otra cosa.
El 99% de las explicaciones que he oído o leído sobre este test son falsas: todas pierden muchos de los efectos deseables del mismo. No consiste exactamente en hacer que una máquina finja ser como un humano, sino que sólo sea capaz de engañar sobre la existencia de su inteligencia como lo haría cualquier humano dentro de un sistema que le dé garantías.
Grandes películas como Ex-máquina plantea este tipo de test de manera bastante profunda y, por supuesto, no han faltado películas en el cine que también han abordado el tema profusamente. Sin embargo, esta no será una entrada sobre películas.
Cuando tenemos una persona que ni se imagina que al otro lado hay un ordenador haciéndose pasar por un humano, porque el concurso de la radio que se emulaba consistía en intentar adivinar el sexo de la persona que está al otro lado haciéndole preguntas, lo que observamos es el estupor sin discriminación de que el comportamiento pueda ser llevada a cabo mediante un mecanismo de formulaciones.
¿Hasta qué punto estaríamos dispuestos a aceptar que la consciencia no es materia exclusiva de los animales? De hecho, el animal de Savater asegura que sólo valora la ética y la libertad asociada a ella, así como su consciencia, en los seres humanos - definiendo así, dentro de sus axiomas, como un imposible para aquello que este filósofo no estime oportuno. Esta manera de pensar, a estas alturas, ya no sólo da grima, es preocupante.
Digamos que existe una función cerebral que necesitan todos los animales sin excepción (incluidas las moscas). Yo a esa función la voy a llamar consciencia. Y esa función es la que provoca que nunca veamos a una mosca dar vueltas en círculo interminablemente... Si vas a tener cerebro, su uso requiere alguna clase de consciencia.
Pues bien, es fácil implementar en una máquina un mecanismo rudimentario de parada. Efectivamente, no es difícil cuando tienes un conocimiento básico de ingeniería del software, más en concreto cuando somos capaces de implementar el patrón estado. Pero claro, ¿y con eso ya tenemos una criatura consciente? ¿Incluso tanto como una mosca?
Las moscas son sutilmente muy inteligentes, son capaces de saber qué es una mierda antes de abalanzarse hacia ella. Hoy día las máquinas a penas son capaces de olérselo - aunque los matices, como pasa con todo, es que para cierta clase de cosas sutiles no sólo son más que capaces, sino que nos superan.
No hay que olvidar que los ordenadores tienen tantos reflejos como queramos, pueden incorporar muchos más sentidos que los nuestros, más sensibles incluso, pueden aprender a una velocidad mucho mayor de incluso lo que aseguran las técnicas oficiales, pueden apercibir variaciones en imágenes diferentes en la medida de que sea interesante percibir tales diferencias mucho mejor que las personas, y una enorme lista de largos etcéteras que, aunque les pese a los partisanos, tienen que ver con la definición de consciencia.
Es decir: si nuestros millones de neuronas, sinapsis, etc..., son capaces de percibir e interpretar como un todo muchas cosas las máquinas ya son capaces de superarnos en ciertos aspectos que tienen que ver con esa capacidad de interpretación y síntesis. Pero claro, las técnicas actuales siguen sin ser capaces de hacer que una máquina, por el momento, sea capaz de por ejemplo desnudar a una persona con su imaginación. En parte, si bien es capaz, la técnica que se utiliza actualmente (GAN - Generative Adversarian Network) yo, personalmente, no me la puedo tomar en serio porque no termina de englobarse dentro del XIA (Explanaible Intelligence Artificial) cuando sí dentro del (Reinforcement Learning). Pero esto son valoraciones mías personales.
Es decir, las técnicas que tenemos hoy día capaces de generar rostros inventados no son capaces de comprender lo que hacen: no analizan la nariz, la boca, etc..., sino que el sistema generador va "a su bola" y luego otro mecanismo controlador (que sí podría ser una XIA) es el que dice si lo está haciendo mejor o peor. Dicho de otra manera: no procede a dibujar narices ni bocas, no inventa un cuerno encima del caballo para hacer un unicornio, no se inventa casas rosas..., todo eso no lo hace cuando es fundamental para entender lo que es la imaginación.
Pues bien, imaginemos que llega un señor que dice que su máquina ya es capaz de imaginar. La idea no es ni mucho menos descabellada: significa que ha hecho posible una función matemática que no es irresoluble..., todo lo más, considerando que la imaginación perfecta no existe, sería un problema intratable - pero, como dice mi tecnología, eso no implica a que sea ineficiente desde un punto de vista pragmático. Por tanto, podría existir esa posibilidad y, de hecho, me imagino perfectamente cómo tendría que generarse tales mecanismos (y no es mediante GAN precisamente).
Pero el asunto es que alguien asegura que ya es capaz de hacer algo así. Entonces el mejor ejercicio imaginativo que se me ocurre que podría hacer es el siguiente:
El sujeto tiene que ver una película y ponerle un título significativo.
Alguien podría decirme, "la aplicación tiene por objeto imaginar, no ser consciente de una animación". Y yo le corregiría: la función de imaginación no consiste realmente en crear, sino en recrear las piezas del puzzle que tiene el sistema de información: se trata de conformar un todo con alguna clase de sentido o mensaje detrás de cada composición dentro del lienzo.
Hace tiempo ya expuse un test para determinar si una máquina era moral, antisocial, inmoral o peligrosa. Los distintos test son aplicables a los niños y provienen de mi experiencia como profesor enseñando japonés. Proviene de mi experiencia enseñando liderazgo con la excusa del japonés. Todo hay que decir que mis técnicas pedagógicas no pudieron ser terminadas...
El asunto es que este test también es aplicable a cualquier persona: invítesele a ver una película y luego discute con ella qué título le pondría, si es adecuado el título que tiene o si habría sido mejor poner otro. La capacidad que tenga esa persona para mantener una conversación así es la que le liga a una capacidad para ser más o menos consciente. Quien no es capaz de ponerle título a una película es algo bastante cercano a un inconsciente.
De la misma manera, si la inteligencia exige técnicas y una capacidad para dar una respuesta, diseñar un test de consciencia dependerá del nivel de inteligencia que queramos desarrollar:
- La máquina elige entre dos o tres títulos predefinidos.
- La máquina tiene entre unos 1000 títulos indexados por temas para conformar una frase y así elegir el título.
- La máquina debe constituir una frase de por sí a partir de las imágenes.
- La máquina debe saber rechazar un título dado para poner, si procede, uno mejor.
Para empezar, la probabilidad de acierto no es realmente diferente entre un nivel y otro; pues se puede repetir varias veces el test para asegurar el resultado. El matiz se encuentra en el ámbito en donde colocamos la consciencia.
De la misma manera, con las técnicas que, casualmente, se han estado desarrollando en 2018 ya se puede implementar casi trivialmente estos mecanismos. Por eso, varias entradas atrás sospeché que puede que veamos en este poco tiempo la primera máquina realmente consciente enfrentándose a filósofos. Máquina que, con su debido software, también sería capaz de adaptar los sistemas GAN para imaginar dentro de su ámbito de inteligencia, su capacidad para desarrollar imágenes y conceptos. Siempre dentro de las limitaciones que expliqué sobre los lenguajes criolla, por ejemplo.
Es decir, estamos a nada: no hay que inventar ninguna tecnología nueva. Todo está ya sobre la mesa. Cueste de creer o no, es así. Quien me lo discuta, tendrá mis argumentos en frente.
Alguien podría pensar que la consciencia tiene que ser algo mucho más mágico. Y yo a eso también tengo respuestas: no hay nada más mágico como resolver el problema de Post. Podría decirme alguien que si el ánima, que si Dios, que si..., pero la ingeniería tiene respuestas para lo que tiene.
Y, al final, la única tecnología que no se ha desarrollado (que me conste): lo que llamo el sistema VAWM. Me suena que un grupo desarrolló algo por el estilo, pero nunca conseguí encontrar su documentación. Es decir, la idea no es nueva, pero oficialmente no me consta de tales trabajos. Así que, como pasa con casi todo, puede que muchas cosas ya existan, o puede que no. Pero lo que yo llamo sistema VAWM es un tipo de Reinforcement Learning que se sale del gráfico.
Pero esta entrada ya ha salido larguita.
Suficiente hasta aquí
hasta la próxima
No hay comentarios:
Publicar un comentario