Eso no es un aprendizaje profundo

160718 Einstein BlogPensad en alguien sabio, o incluso simplemente experto, que conozcáis. Pensad en una pregunta del tipo «¿Cómo funciona …?» sobre algo que forme parte de su dominio.

¿Qué pensarías si la respuesta fuera algo así como : «La verdad es sólo sé que funciona, pero no entiendo ni cómo ni por qué«?

No sé vosotros, pero mi confianza en ese experto bajaría algunos puntos.

Todo eso viene a cuento de un artículo en Wired sobre los nuevos programas de inteligencia artificial, a los que han dado a calificar como de «deep learning» (aprendizaje profundo). Traduzo los párrafos relevantes:

«Nuestras [sic] máquinas están empezando a hablar un lenguaje distinto, uno que incluso los mejores programadores no pueden entender del todo […] En la programación tradicional, un ingeniero escribe instrucciones explícitas que el ordenador sigue paso a paso. Ahora los programadores no codifican instrucciones para el ordenador. Lo entrenan. Si quieres enseñar a una red neuronal a reconocer a un gato […] le muestras miles de fotos de gatos, y finalmente aprende. Si todavía etiqueta a los zorros como gatos, no reescribes el código. Sigues entrenándolo.«

Combinado con los Big Data, este enfoque está haciendo furor. Se publican predicciones acerca de la aplicación de la inteligencia artificial para todo; Amazon incluso anuncia la oferta de capacidades de inteligencia artificial como servicio.

Si, tal como parece, se trata de una técnica factible, útil y rentable, a buen seguro que acabará por imponerse. Probablemente más pronto que tarde.

Pero, como señala el artículo de Wired, hay un problema:  Con este enfoque, el programador nunca sabe con precisión cómo el ordenador toma sus decisiones, porque la secuencia de redes neuronales enlazadas que realizan los cálculos se comporta esencialmente como una caja negra.

Para mí, eso es casi exactamente lo contrario de un ‘aprendizaje profundo‘. Llamadme malpensado, pero el hecho de que se haya escogido ese calificativo me hace recordar la cita de Jaron Lanier:

«Promueven una nueva filosofía: que el ordenador evoluciona hacia una forma de vida que puede entender a las personas mejor de lo que las personas se pueden entender a sí mismas.»

Con un añadido: Una vez se empiece a aceptar que los ordenadores adquieren conocimiento, aumentará la presión para cederles espacio en los procesos de decisión. Lo que, en la práctica, equivale a ceder ciegamente poder en aquellos que han programado cajas negras que protejerán como cajas negras.

Habrá que ir pensando en tácticas de resistencia. Porque, en el fondo, se trata de una batalla por acumular riqueza y poder.

En este contexto, las manifestaciones del CEO de Microsoft suponen un rayo de esperanza:

«La Inteligencia Artificial debe ser transparente. Tenemos que tener conciencia de cómo funciona la tecnología y cuáles son sus reglas […] La gente debe entender cómo la tecnología ve y analiza el mundo. La ética y el diseño van de la mano.»

Es buen objetivo. Que partamos de la ética para diseñar tecnología y procesos. Porque, hoy por hoy, todo apunta a que quienes dominan el diseño de la tecnología dejan la ética de costado.

Acabo con una cita de Bertrand Rusell que ha aparecido por aquí:

«El gran problema del mundo es que los locos y los fanáticos están siempre tan seguros de sí mismos, mientras que la gente más sabia está llena de dudas.«

Pues eso.

0 comentarios

Dejar un comentario

¿Quieres unirte a la conversación?
Siéntete libre de contribuir

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.