viernes, 19 de abril de 2019

Estados neuronales Vs Esperiencia consciente

He vuelto sobre antiguas lecturas, después de tantos años, para retomar experiencias para las cuales no tenía un modelo completamente bien constituido. Ahora puedo leer todo eso mucho mejor, y también tengo discrepancias con mis colegas informáticos.




¡Ay la consciencia! ¡Ay...! 
¡Cómo dueles! 
Porque te dejas doler 
y tu indolencia no nos deja ver
porque nunca sueles.

¡Cómo me gusta estas melodías!

Hoy quería aprovechar mis relecturas, creo que voy a abrir una nueva línea de investigación mucho más adecuada. Por un lado, he estado desmitificando la filosofía conexionista a medida que he estado leyendo más y más sus técnicas; no estoy seguro, pero creo que es fácilmente mejorable. De hecho, tras un estudio profundo creo estar seguro de que puede que pase un poquito más tiempo de lo que me pensaba para que se dé la singularidad.

Bien, ¿qué es la singularidad y qué es lo que me ha hecho pensar que la informática ortodoxa está un pelín más lejos de lo que pensaba?

En alguna entrada ya comenté que lo que le faltaba a las máquinas para ser conscientes era que fueran capaces de ponerle título a una película. Sin ir más lejos, si fueran capaces de evaluar el contenido de los vídeos, entonces plataformas como Youtube podría tener más fácilmente contentos a sus creadores de contenidos.

Más en concreto, se dice que las máquinas alcanzarán la singularidad cuando éstas sean conscientes de su propia existencia. Concepto que, aseguro, está mucho más cercano de lo que muchos se piensan. Por supuesto, eso no quiere decir que las máquinas acabarán por tomar el control y acabar con los humanos: ya comenté que, desde mi punto de vista, esa máquina ya existe, y es la que le da de comer el ansia de poder a los ricachones. Esta máquina no necesita ningún alma: ya trabajamos para ella, se trata de la bolsa y sus algoritmos.

Pero volvamos a la otra singularidad, la que suscita interés al que estudia neurología: es posible que quiera rescatar mis estudios sobre la lógica y la informática para ayudar a desmenuzar cosas divulgadas - lo que no sé es si seguiré dejándome el dinero publicando cosas nuevas; total, luego nadie lo lee. Es un absurdo. Y además aprovechan para reirse de mis publicaciones... ¡Gentuza!

Pero, vamos a ver si consigo centrar el tiro: resulta que mi modelo homuncular, poco a poco, va tomando un especial sentido. Para empezar, hoy mismo he releido que el cerebro, cuando se forma, a través de una zona (V4) aprende a percibir colores, después se desarrolla otra zona (V5) para aprender los movimientos y, finalmente, ojo: se desarrollaría una tercera zona (L0) para la categorización de movimientos. Pues bien, ¿dónde está lo gracioso?

Resulta que, para el que haya leído ensayos de deep learning, y haya programado con sus propias manos (en mi caso con las librerías de Python), el reconocimiento de caras (por ejemplo) sabe que, para empezar, se necesita poder catalogar y reconocer bien lo que se ve en la ventana, que el movimiento es como secundario o muy complejo y, por supuesto, es más fácil reconocer las imágenes en blanco y negro. Es decir: está todo al revés. Nada encaja: a las técnicas que tenemos se les tendría que dar la vuelta para comprender cómo puede ser más eficiente que un ser vivo necesite evolucionar en esa dirección.

Es decir, si estudiáramos nuestras librerías digitales para considerar cómo funcionan las redes neuronales, entonces nuestros organismos tendrían que empezar a desarrollar un sistema de catalogación, luego podríamos añadirle la percepción del movimiento y, finalmente, si cabe darle potencia al asunto, le metemos los colores. Entonces, ¿por qué la sabia naturaleza se deja para el final lo que en principio es lo fundamental? Obviamente porque hay errores conceptuales demasiado importantes donde falla la neurología (los informáticos aquí no somos culpables, más bien somos las cobayas que testificamos que los modelos no encajan).

Estoy, por otro lado, plenamente seguro de que tiene que haber neurólogos que ya tengan mis modelos más que asumidos, y que no les darán importancia porque la masa científica ya va en otra dirección. Bueno, yo desde aquí mencionaré a una científica hiperconocida de la que no suelo oir hablar: según Kanwisher el cerebro es como una navaja suiza que usamos para construirnos la consciencia.

Sin ir más lejos, Kanwisher tras estudiar el área fusiforme facial (AFF - que es la que sirve para reconocer/imaginar caras) nos dice que funciona indistintamente para reconocer que está viendo una cara, así como para reconocer la cara misma, a partir de unos patrones de referencia. Esto, que parece poquita cosa, lo que nos debe decir esta frase:

This suggests that face detection, like face perception, 
 may involve coding a face in terms of its deviation from the central tendency of faces.

Es que la técnica de reconocimiento de caras es mediante árboles y aprendizaje no supervisado: las funciones de AFF no están especializadas en caras exclusivamente.


Y, efectivamente, considerando los experimentos hechos por Mriganka Sur con hurones, de hecho las partes que sirven para ver bien que pueden usarse para escuchar. Y, esto último, contradice algunos de los ensayos más respetados de estos últimos años sobre cómo afrontar la pugna entre los modelos neuronales de convolución 2D y los modelos neuronales recurrentes (como ya he insistido en este blog anteriormente).

Me explico:

El experimento de Mriganka Sur consistió en hacer una salvajada que se la pudo haber ahorrado: operó unos hurones de manera que el aparato de los ojos estuviera conectado con el área del cerebro que sirve para escuchar (retina conectada al cortex auditivo). Lo que se comprobó es que los ratones veían con la parte del cerebro que se usa para escuchar (veían con el cortex auditivo).

Por otro lado, los estudios de las redes neuronales nos dice que para ver sólo sabemos desarrollar redes de convolución, mientras que las que usamos para reconocer frases (oir) sólo pueden ser recurrentes. Es decir, aunque hay modelos híbridos, aún es imposible repetir el experimento de los hurones con los modelos actuales: la máquina no puede montarse una frase a modo de resumen a partir de una imagen. O, lo que es lo mismo, la máquina no puede imaginarse una escena a partir de una frase.

Por otro lado, veo que mis modelos sí van por buen camino. Y es entonces cuando me pregunto: ¿se estarán haciendo los suecos y, en realidad, estarán aprovechando mis funciones? - ¡Ja! No tengo tanta fe en la inteligencia de este planeta.

En cualquier caso, he podido retomar la idea de consciencia en mis lecturas gracias al entendimiento de cómo funciona el miembro fantasma:

La experiencia del miembro fantasma consiste en disponer de un sujeto que tenga una mano amputada y, si se diera, cuando se le acaricie una parte de la cara entonces notaría alguna clase de caricia sobre la mano que fue amputada.

La explicación no sé hasta qué punto estará consolidada: cuando las neuronas de la mano dejan de conectarse con el cerebro la parte del cerebro que percibe la mano aún sigue conectada con otras partes que se encuentran muy cerca, que son las de la cara. Entonces las neuronas que están en la cara algunas seguirán activando las partes que perciben la mano. Para cuando el cerebro haga una foto del estado en el que se encuentra el cuerpo al completo (cuando haga alguna recurrencia, centre su atención, etc...) tendrá almacenado la sensación que antes usaba para su mano de recurrencias anteriores, y de ahí que sería como si no se la hubieran cortado.

Efectivamente esto implicaría que las recurrencias tienen que ser a muy largo plazo, no como la tecnología más puntera de redes recurrentes (transformers) que funcionan a más bien corto plazo (sólo trabajan con una función de palabras vecinas).

En definitiva, que veo que estamos en pañales para lo importante. Y, por otro lado, veo que se reafirma mi manera de desarrollar la filosofía conexionista. Así que veré si inicio una serie explicando y desmenuzando un poco mejor lo que he intentado publicar hasta el momento.




No hay comentarios:

Publicar un comentario

Tierra: Día 19/07/24 punto de inflexión

Ayer se produjo el punto de inflexión a escala mundial. Dependiendo de lo que hagan y no hagan los gobiernos tras lo sucedido ayer las dos c...

Entradas populares