En estos últimos meses me he estado apuntando a concursos para aprender deep learning. He querido entrar en la ensoñación de que hasta podría ganar algo dentro de alguna posibilidad remota, suponiendo que no hubiera ni trampa ni cartón en estas competiciones. Pero mi verdadero objetivo era depurar mi perfil como científico de datos, para así poder ofertarme de una manera más profesional.
Ayer mismo quise probar una teoría que tenía sobre los aminoácidos. No soy químico, y eso me escamaba, ¿cómo iba a funcionar? Bueno, pero el asunto es intentarlo. Y tan pronto como observé los resultados me di cuenta de que el modelo simplificado no funcionaría - así que cuando probé el segundo modelo directamente mi equipo no era capaz de procesarlo. O yo no tenía suficiente paciencia para esperar un resultado.
Es otra de las cosas que también me he planteado: ¿es posible que las cosas gordas sean saboteadas? Como ocurría cuando estaba en la universidad - y entonces ponía el grito en el cielo porque los saboteadores eran torpes a más no poder.
Mi equipo, debido a la desgracia de tener el sistema operativo que tengo, no es mío. No puedo estar realmente seguro de que mis resultados son míos. Por eso mis laboratorios me saben descafeinados. Y, por otro lado, ¿van a ser tan cutres de perder el tiempo vigilando a gente que no tiene ni donde dejarse caer? Sin embargo, en lo que se refiere a Microsoft, ya digo que llegaron a meterme un virus de hardware... Así que me espero cualquier cosa ya.
Sea como fuere tendría que cambiar el código para hacerlo ejecutar en un sitio que no sea este equipo, quizá en una máquina virtual de otra corporación - ya sea en Kaggle o en Google. Entonces podría probar a ver cómo de rápida va la máquina; si hubiera funcionado habría servido para explicar cómo se intercambian los aminoácidos..., pero nada. Hay que pensarlo mejor: un químico sabe lo que yo de estos temas multiplicado por mil. Lo lógico es pensar que no sirve de nada, y quizá el intentar tirar hacia arriba no es más que una complicación absurda.
Y me he quedado como en tablas: ¿pruebo mi teoría hasta el final o lo dejo pasar?
¿Qué diferencia esas pretensiones de la locura misma?
--
Me he puesto a mirar la página de Open GPU Data Science para ver si incorporan el servicio de calcular la inversa de una matriz.
Ya he encontrado rápidamente el link, y ya sé cómo hacerlo. Al parecer todo es accesible hoy día. Podría continuar si quisiera - parece trivial ejecutarlo en una GPU con la función solve.
--
Luego me pongo a pensar, todo es tan trivial que, lógicamente, otros científicos de datos ya habrán pasado por ahí. Además de que ellos, por lo menos, trabajan en equipo y pueden centrar sus objetivos compartiendo conocimientos e impresiones. Hacer sinergia con estas plataformas es terriblemente fácil.
Así que nada..., seguiré tanteando a ciegas, sin esperar absolutamente nada. Se trata, una vez más, de un camino puramente coyuntural que no me aportará nada, pero que debo seguirlo para evitar morir en la indigencia. El que salga corriendo, con su arrogancia - mientras le acompañan algunos elegidos, se llevará la gloria.
Pero lo que hace daño es tener esa sensación de gloria que, en cuanto lo metes en la máquina, descubres que no era para tanto - que aún hay que pulir detalles. Con los años que tengo debería de estar curado en salud de esas ensoñaciones infantiles. Pero nada..., de vez en cuando me asaltará una de esas ensoñaciones, un momento de necedad. Es como cuando un pequeñajo se enfrenta en combate de arte marcial contra un gigantón; esto es, ¿pero a dónde va? Yo mismo, de haber sido el pequeñajo, le habría dicho eso mismo al gigantón - porque sí soy un maestro en la confrontación física, y es porque nunca hay que enfrentarse contra lo que no se puede vencer y siempre hay que buscar la manera de hacer avanzar las barreras de tus propias limitaciones poniéndote a prueba. Cuando se es capaz de hacer casar ambas filosofías se tiene un proceso de aprendizaje dinámico y eficiente.
Para que un sistema de información necesite aplicar esos consejos antes debe estar internamente estructurado con la necesidad de usar patrones y confrontarlos con un sistema ininteligible de procesamiento. En cierta manera es como decir que todos los procesos cognitivos se reducen a la filosofía del reinforce learning, y que la XAI (eXplainable Artificial Intelligence) es una reinterpretación de la Responsible AI. Por lo que toda la filosofía de diseño de redes neuronales se puede reconvertir a una filosofía de las artes marciales. Y es que, como decía el personaje de Jackie Chan en el remake de Karate Kid: "todo es kung fu".
No hay comentarios:
Publicar un comentario