Entradas

La filosofía es necesaria para entender la ciencia

«Los modelos matemáticos – nos cuentan en el video adjunto – nos proporcionan imágenes bonitas y fáciles de digerir acerca de cómo funciona el Universo […] Pero debemos tener cuidado sobre el valor que damos a estos modelos en nuestro pensamiento […] El modo en que describimos el mundo influencia cómo creemos que es el mundo. Incluso cuando hay otros modos igualmente correctos de describir el mundo que emplean imágenes totalmente distintas de las nuestras.

[youtube https://www.youtube.com/watch?v=lHaX9asEXIo&w=800&h=450]

¿Por qué llamar la atención sobre ello? Porque, citando a Marcelo Gleiser, el análisis de los límites de la ciencia es muy necesario cuando la arrogancia en la especulación científica es manifiesta. De que haya leyes de la naturaleza no se deduce directamente, que todo lo que sucede obedezca a leyes naturales. La suposición de que sólo es genuino el conocimiento científicamente asegurado y formulado en un lenguaje supuestamente experto es sólo eso, una suposición que no puede probarse científicamente.

Reflexiones de este tipo parecen especialmente necesarias en el terreno de la neurociencia. Observamos que es cada vez más frecuente que se describa el cerebro como una máquina, o al ser humano como un complejo procesador de información. Quizá sólo porque falta imaginación para pensar de otro modo. Quizá porque, como apuntaba Jaron Lanier, interesa a algunos degradar a las personas para que los ordenadores parezcan más potentes.

Me anima leer a alguien como Seth Godin escribir así sobre (los límites) de la ciencia:

«La ciencia es un proceso. No se trata de pretender que tiene la respuesta correcta; solamente que es el mejor proceso para acercarse a la respuesta correcta.»

Creo que más de un científico, y sobre todo más de un pseudo-divulgador de la ciencia o divulgador de la pseudo-ciencia podrían aprender de él algo más que marketing.

Continuará.

Eso no es un aprendizaje profundo

160718 Einstein BlogPensad en alguien sabio, o incluso simplemente experto, que conozcáis. Pensad en una pregunta del tipo «¿Cómo funciona …?» sobre algo que forme parte de su dominio.

¿Qué pensarías si la respuesta fuera algo así como : «La verdad es sólo sé que funciona, pero no entiendo ni cómo ni por qué«?

No sé vosotros, pero mi confianza en ese experto bajaría algunos puntos.

Todo eso viene a cuento de un artículo en Wired sobre los nuevos programas de inteligencia artificial, a los que han dado a calificar como de «deep learning» (aprendizaje profundo). Traduzo los párrafos relevantes:

«Nuestras [sic] máquinas están empezando a hablar un lenguaje distinto, uno que incluso los mejores programadores no pueden entender del todo […] En la programación tradicional, un ingeniero escribe instrucciones explícitas que el ordenador sigue paso a paso. Ahora los programadores no codifican instrucciones para el ordenador. Lo entrenan. Si quieres enseñar a una red neuronal a reconocer a un gato […] le muestras miles de fotos de gatos, y finalmente aprende. Si todavía etiqueta a los zorros como gatos, no reescribes el código. Sigues entrenándolo.«

Combinado con los Big Data, este enfoque está haciendo furor. Se publican predicciones acerca de la aplicación de la inteligencia artificial para todo; Amazon incluso anuncia la oferta de capacidades de inteligencia artificial como servicio.

Si, tal como parece, se trata de una técnica factible, útil y rentable, a buen seguro que acabará por imponerse. Probablemente más pronto que tarde.

Pero, como señala el artículo de Wired, hay un problema:  Con este enfoque, el programador nunca sabe con precisión cómo el ordenador toma sus decisiones, porque la secuencia de redes neuronales enlazadas que realizan los cálculos se comporta esencialmente como una caja negra.

Para mí, eso es casi exactamente lo contrario de un ‘aprendizaje profundo‘. Llamadme malpensado, pero el hecho de que se haya escogido ese calificativo me hace recordar la cita de Jaron Lanier:

«Promueven una nueva filosofía: que el ordenador evoluciona hacia una forma de vida que puede entender a las personas mejor de lo que las personas se pueden entender a sí mismas.»

Con un añadido: Una vez se empiece a aceptar que los ordenadores adquieren conocimiento, aumentará la presión para cederles espacio en los procesos de decisión. Lo que, en la práctica, equivale a ceder ciegamente poder en aquellos que han programado cajas negras que protejerán como cajas negras.

Habrá que ir pensando en tácticas de resistencia. Porque, en el fondo, se trata de una batalla por acumular riqueza y poder.

En este contexto, las manifestaciones del CEO de Microsoft suponen un rayo de esperanza:

«La Inteligencia Artificial debe ser transparente. Tenemos que tener conciencia de cómo funciona la tecnología y cuáles son sus reglas […] La gente debe entender cómo la tecnología ve y analiza el mundo. La ética y el diseño van de la mano.»

Es buen objetivo. Que partamos de la ética para diseñar tecnología y procesos. Porque, hoy por hoy, todo apunta a que quienes dominan el diseño de la tecnología dejan la ética de costado.

Acabo con una cita de Bertrand Rusell que ha aparecido por aquí:

«El gran problema del mundo es que los locos y los fanáticos están siempre tan seguros de sí mismos, mientras que la gente más sabia está llena de dudas.«

Pues eso.