Entradas

Conocimiento, emociones y creencias

Escribo bajo la influencia de la lectura  de «The Knowledge Illusion: The myth of individual thought and the power of collective wisdom«. (También, supongo, bajo la influencia de la campaña electoral en Cataluña).

Su punto de partida (que debiera escribirse en primera persona del plural):

«No es que la gente sea ignorante. Es que la gente es más ignorante de lo que cree.«

Y en particular, que:

«Los políticos y los votantes no son conscientes de lo poco que entienden.»

Para los autores, la causa de esta «ilusión del conocimiento» es que:

«Los sentimientos intensos no emergen a partir de un conocimiento profundo.«

Cuando actuamos, como a menudo sucede, a partir de emociones y creencias (incluyendo las que conforman nuestros valores), nos importa poco el razonamiento sobre los resultados de nuestras acciones (o los de las políticas a las que damos apoyo). En línea con el origen y la influencia de los ‘marcos mentales’ que Georges Lakoff puso de moda hace ya algunos años,

«El secreto que la gente que tiene práctica en el arte de la persuasión aprendió hace siglos es que cuando una actitud está basada en un valor que se considera sagrado, las consecuencias no importan.»

La conclusión, desde luego, no es prescindir de los valores:

«Los valores sagrados tienen su lugar, pero su lugar no debería el de impedir el razonamiento causa-efecto sobre las consecuencias de la política social.»

Hace poco, Alfredo Pastor firmaba un artículo en la misma línea:

«Lograr la armonía no ha sido la principal preocupación de nuestros políticos en estos últimos tiempos. Al contrario: han jugado con las emociones y las han excitado […] Los políticos pueden contribuir a la ­tarea de remendar la convivencia no sólo ­arbitrando la única salida inmediata po­sible en nuestro caso, que consiste en poner a votación de un buen acuerdo. También pueden incidir en el plano más profundo de emociones y creencias.«

Una dificultad, creo, es que nos gusta considerarnos como seres racionales, pero lo cierto es que también somos seres hedonistas. Lo cual trae a cuento mi cita final, que unos atribuyen a Oscar Wilde y otros a Voltaire:

«La ilusión es el primero de todos los placeres.«

He estado a punto de escribir que me haría ilusión que la política y nuestros políticos fueran de otra forma. Pero me he contenido.

Eso no es un aprendizaje profundo

160718 Einstein BlogPensad en alguien sabio, o incluso simplemente experto, que conozcáis. Pensad en una pregunta del tipo «¿Cómo funciona …?» sobre algo que forme parte de su dominio.

¿Qué pensarías si la respuesta fuera algo así como : «La verdad es sólo sé que funciona, pero no entiendo ni cómo ni por qué«?

No sé vosotros, pero mi confianza en ese experto bajaría algunos puntos.

Todo eso viene a cuento de un artículo en Wired sobre los nuevos programas de inteligencia artificial, a los que han dado a calificar como de «deep learning» (aprendizaje profundo). Traduzo los párrafos relevantes:

«Nuestras [sic] máquinas están empezando a hablar un lenguaje distinto, uno que incluso los mejores programadores no pueden entender del todo […] En la programación tradicional, un ingeniero escribe instrucciones explícitas que el ordenador sigue paso a paso. Ahora los programadores no codifican instrucciones para el ordenador. Lo entrenan. Si quieres enseñar a una red neuronal a reconocer a un gato […] le muestras miles de fotos de gatos, y finalmente aprende. Si todavía etiqueta a los zorros como gatos, no reescribes el código. Sigues entrenándolo.«

Combinado con los Big Data, este enfoque está haciendo furor. Se publican predicciones acerca de la aplicación de la inteligencia artificial para todo; Amazon incluso anuncia la oferta de capacidades de inteligencia artificial como servicio.

Si, tal como parece, se trata de una técnica factible, útil y rentable, a buen seguro que acabará por imponerse. Probablemente más pronto que tarde.

Pero, como señala el artículo de Wired, hay un problema:  Con este enfoque, el programador nunca sabe con precisión cómo el ordenador toma sus decisiones, porque la secuencia de redes neuronales enlazadas que realizan los cálculos se comporta esencialmente como una caja negra.

Para mí, eso es casi exactamente lo contrario de un ‘aprendizaje profundo‘. Llamadme malpensado, pero el hecho de que se haya escogido ese calificativo me hace recordar la cita de Jaron Lanier:

«Promueven una nueva filosofía: que el ordenador evoluciona hacia una forma de vida que puede entender a las personas mejor de lo que las personas se pueden entender a sí mismas.»

Con un añadido: Una vez se empiece a aceptar que los ordenadores adquieren conocimiento, aumentará la presión para cederles espacio en los procesos de decisión. Lo que, en la práctica, equivale a ceder ciegamente poder en aquellos que han programado cajas negras que protejerán como cajas negras.

Habrá que ir pensando en tácticas de resistencia. Porque, en el fondo, se trata de una batalla por acumular riqueza y poder.

En este contexto, las manifestaciones del CEO de Microsoft suponen un rayo de esperanza:

«La Inteligencia Artificial debe ser transparente. Tenemos que tener conciencia de cómo funciona la tecnología y cuáles son sus reglas […] La gente debe entender cómo la tecnología ve y analiza el mundo. La ética y el diseño van de la mano.»

Es buen objetivo. Que partamos de la ética para diseñar tecnología y procesos. Porque, hoy por hoy, todo apunta a que quienes dominan el diseño de la tecnología dejan la ética de costado.

Acabo con una cita de Bertrand Rusell que ha aparecido por aquí:

«El gran problema del mundo es que los locos y los fanáticos están siempre tan seguros de sí mismos, mientras que la gente más sabia está llena de dudas.«

Pues eso.