Entradas

No degradarás en vano la inteligencia humana

«Cuando el lenguaje pierde el significado, no puede existir
ninguna forma de verdad y la mentira se convierte en norma.«

«Somos confrontados con el refinado arte de la mentira
y el torcimiento del significado de las palabras.
«

Rob Riemen («Para combatir esta era:
Consideraciones urgentes sobre fascismo y humanismo
«)

En La Vanguardia, un artículo sobre la inteligencia artificial de uno de sus colaboradores habituales, se me antoja una buena muestra del perceptivo diagnóstico de Jaron Lanier acerca de las perspectivas e intenciones sesgadas de muchos tecnófilos:

«Hacen a las personas obsoletas para que las máquinas parezcan más avanzadas.»
Jaron Lanier, «You are not a gadget«

Una manifestación visible de este sesgo es que el autor considere estimulante definir la inteligencia como «todo lo que las máquinas aún no han hecho«.  Una definición que, a medida que se avance en las capacidades de la IA, lleva a considerar como cada vez menos inteligentes a los humanos.  De ahí a degradar a los propios humanos a favor de las máquinas hay sólo un (pequeño) paso. Que algunos los explotadores de la condición humana, en alianza con algunos vendedores de máquinas sin escrúpulos, estarán encantados de dar.

Me parece pues apropiado aplicar un poco de autodefensa intelectual y de ejercicio de la dialéctica. Empezando por no aceptar las trampas del argumentario del autor.

  • Aprovecharse de la homonimia. No hay una única definición de inteligencia. Si, de entre las que propone la Wikipedia, por ejemplo, escogiéramos «la capacidad agregada o global de actuar con propósito, de pensar racionalmente y de manejar eficazmente su entorno«, difícilmente calificaríamos a los ordenadores como inteligentes. Quizá sea tarde para evitar que se utilice la misma palabra (‘inteligencia’) para referirse a capacidades diferentes; pero no lo es para tomar conciencia de las consecuencias de hacerlo; sobre todo de las mal intencionadas, que las hay.
  • La falta de rigor en el uso del lenguaje. El autor presenta la IA como «la disciplina que se encarga de dotar a los ordenadores de las capacidades cognitivas que hasta ahora eran exclusivas de los humanos«.  Si entendemos la cognición como «el proceso de conocer y comprender por medio del pensamiento, la experiencia y los sentidos», la IA no tiene capacidades cognitivas. Porque nadie comprende (hoy por hoy) cómo los algoritmos de IA más avanzados producen los resultados que producen; y mucho menos los propios algoritmos.
  • La asignación antidemocrática de responsabilidades. Para el autor, definir la inteligencia humana en negativo (lo que los ordenadores aún no son capaces de hacer) es interesante porque «nos obliga a redefinirnos a nosotros mismos«. La IA es un desarrollo impulsado por una minoría, que en principio persigue sus propios intereses. Conceder sin más el poder de que se nos obligue a redefinirnos como humanos es, en el fondo, de lo más antidemocrático.

Hay quien propone que 2019 sea el año en que se empiecen a poner límites al desarrollo y la aplicación acrítica de las tecnologías. Una tarea que incluiría desmontar con rigor la argumentación (no sé si ingenua o falaz) de escritos como el comentado. ¿Alguien se apunta?

 

No tomarás el nombre de nada en vano.

Un nuevo colectivo («Treva i Pau»), en el contexto de la situación en Cataluña,  nos invita en La Vanguardia al compromiso de hacernos co-responsables de nuestro futuro. Destacan la necesidad de:

«Un nuevo relato dirigido a establecer actitudes sociales tendentes a hacer posible una acción poderosa de reforma y regeneración […] A esta tarea nos comprometemos y llamamos a todo el mundo a comprometerse.«

Este relato, si quiere ser nuevo, tendría que incorporar también nuevas imágenes y marcos mentales, un nuevo léxico. También posiblemente un nuevo estilo de escritura, una sintaxis diferente.

Quizá por coincidencia, Eduardo Madina propone («Lenguaje para después de una batalla«) renovar el vocabulario. Rechazando, por ejemplo, propuestas que apelen genéricamente al «pueblo» como si este concepto significara hoy algo. «Cada cosa en su sitio«, reclama también Remei Margarit, con la que coincido en:

«El convencimiento de que cuando se habla en nombre del pueblo es que no se tiene argumentos creíbles y sensatos.«

Añado a este zurcido de retales un titular reciente de La Contra:

«De un conflicto se sale poniendo palabras a las emociones.«

No somos responsables de nuestras emociones, pero sí de lo que hacemos con ellas. Lo primero, si queremos evitar que sean los demonios del inconsciente los que guíen nuestro actuar, es «tomar la suficiente distancia respecto a lo que sentimos como para distinguirlas de hechos y razones«. Poner las palabras justas a las emociones es articularlas, convertirlas en conocimiento. Es también cerrar esos demonios que tanto nos pueden cegar.

La cuestión, como tantas veces, es cómo hacerlo. No sólo de modo individual, sino también colectivamente. En su reciente y recomendable «Nueva Ilustración Radical«, Marina Garcés reedita la denuncia la tendencia extendida a la interpasividad:

«Una forma de actividad delegada que oculta la propia pasividad […] Es una relación sin relación que mueve información pero que no genera experiencia, comprensión ni desplazamiento alguno.»

Confiar en que la publicación de ideas y propuestas en los periódicos o en las redes sociales será suficiente para cambiar las cosas sería un ejemplo de interpasividad. También lo es, mucho me temo, limitarse a escribir este blog. Hacen falta nuevas prácticas y nuevos practicantes.

Ilustración: Perico Pastor en La Vanguardia

 

 

 

 

 

Conocimiento, emociones y creencias

Escribo bajo la influencia de la lectura  de «The Knowledge Illusion: The myth of individual thought and the power of collective wisdom«. (También, supongo, bajo la influencia de la campaña electoral en Cataluña).

Su punto de partida (que debiera escribirse en primera persona del plural):

«No es que la gente sea ignorante. Es que la gente es más ignorante de lo que cree.«

Y en particular, que:

«Los políticos y los votantes no son conscientes de lo poco que entienden.»

Para los autores, la causa de esta «ilusión del conocimiento» es que:

«Los sentimientos intensos no emergen a partir de un conocimiento profundo.«

Cuando actuamos, como a menudo sucede, a partir de emociones y creencias (incluyendo las que conforman nuestros valores), nos importa poco el razonamiento sobre los resultados de nuestras acciones (o los de las políticas a las que damos apoyo). En línea con el origen y la influencia de los ‘marcos mentales’ que Georges Lakoff puso de moda hace ya algunos años,

«El secreto que la gente que tiene práctica en el arte de la persuasión aprendió hace siglos es que cuando una actitud está basada en un valor que se considera sagrado, las consecuencias no importan.»

La conclusión, desde luego, no es prescindir de los valores:

«Los valores sagrados tienen su lugar, pero su lugar no debería el de impedir el razonamiento causa-efecto sobre las consecuencias de la política social.»

Hace poco, Alfredo Pastor firmaba un artículo en la misma línea:

«Lograr la armonía no ha sido la principal preocupación de nuestros políticos en estos últimos tiempos. Al contrario: han jugado con las emociones y las han excitado […] Los políticos pueden contribuir a la ­tarea de remendar la convivencia no sólo ­arbitrando la única salida inmediata po­sible en nuestro caso, que consiste en poner a votación de un buen acuerdo. También pueden incidir en el plano más profundo de emociones y creencias.«

Una dificultad, creo, es que nos gusta considerarnos como seres racionales, pero lo cierto es que también somos seres hedonistas. Lo cual trae a cuento mi cita final, que unos atribuyen a Oscar Wilde y otros a Voltaire:

«La ilusión es el primero de todos los placeres.«

He estado a punto de escribir que me haría ilusión que la política y nuestros políticos fueran de otra forma. Pero me he contenido.

Límites de lo que sabemos y podemos saber

Sin títuloEn La Contra de La Vanguardia conversan con un astrofísico catalán exilado sobre su descubrimiento del Planeta Próxima b, que tal vez sería habitable.

El diálogo incluye el siguiente intercambio:

«¿Dónde está exactamente? En la constelación de Centauro […] Es una estrella enana roja y está a 4,22 años luz de nosotros.»

Lo cierto es que lo único que podemos saber es cómo y dónde estaba hace 4,22 años. Y que tardaremos 4,22 años en saber cómo está ahora. Probablemente los modelos de los astrofísicos les lleven a prever que en el mismo sitio y en una condición parecida a la actual. Pero no podrán estar realmente seguros hasta que alguien lo verifique. ¿O sí?

Puede parecer una observación puntillosa sobre un pequeño detalle. Pero de vez en cuando parece conveniente tomar conciencia de que el conocimiento científico tiene sus límites.

Eso no es un aprendizaje profundo

160718 Einstein BlogPensad en alguien sabio, o incluso simplemente experto, que conozcáis. Pensad en una pregunta del tipo «¿Cómo funciona …?» sobre algo que forme parte de su dominio.

¿Qué pensarías si la respuesta fuera algo así como : «La verdad es sólo sé que funciona, pero no entiendo ni cómo ni por qué«?

No sé vosotros, pero mi confianza en ese experto bajaría algunos puntos.

Todo eso viene a cuento de un artículo en Wired sobre los nuevos programas de inteligencia artificial, a los que han dado a calificar como de «deep learning» (aprendizaje profundo). Traduzo los párrafos relevantes:

«Nuestras [sic] máquinas están empezando a hablar un lenguaje distinto, uno que incluso los mejores programadores no pueden entender del todo […] En la programación tradicional, un ingeniero escribe instrucciones explícitas que el ordenador sigue paso a paso. Ahora los programadores no codifican instrucciones para el ordenador. Lo entrenan. Si quieres enseñar a una red neuronal a reconocer a un gato […] le muestras miles de fotos de gatos, y finalmente aprende. Si todavía etiqueta a los zorros como gatos, no reescribes el código. Sigues entrenándolo.«

Combinado con los Big Data, este enfoque está haciendo furor. Se publican predicciones acerca de la aplicación de la inteligencia artificial para todo; Amazon incluso anuncia la oferta de capacidades de inteligencia artificial como servicio.

Si, tal como parece, se trata de una técnica factible, útil y rentable, a buen seguro que acabará por imponerse. Probablemente más pronto que tarde.

Pero, como señala el artículo de Wired, hay un problema:  Con este enfoque, el programador nunca sabe con precisión cómo el ordenador toma sus decisiones, porque la secuencia de redes neuronales enlazadas que realizan los cálculos se comporta esencialmente como una caja negra.

Para mí, eso es casi exactamente lo contrario de un ‘aprendizaje profundo‘. Llamadme malpensado, pero el hecho de que se haya escogido ese calificativo me hace recordar la cita de Jaron Lanier:

«Promueven una nueva filosofía: que el ordenador evoluciona hacia una forma de vida que puede entender a las personas mejor de lo que las personas se pueden entender a sí mismas.»

Con un añadido: Una vez se empiece a aceptar que los ordenadores adquieren conocimiento, aumentará la presión para cederles espacio en los procesos de decisión. Lo que, en la práctica, equivale a ceder ciegamente poder en aquellos que han programado cajas negras que protejerán como cajas negras.

Habrá que ir pensando en tácticas de resistencia. Porque, en el fondo, se trata de una batalla por acumular riqueza y poder.

En este contexto, las manifestaciones del CEO de Microsoft suponen un rayo de esperanza:

«La Inteligencia Artificial debe ser transparente. Tenemos que tener conciencia de cómo funciona la tecnología y cuáles son sus reglas […] La gente debe entender cómo la tecnología ve y analiza el mundo. La ética y el diseño van de la mano.»

Es buen objetivo. Que partamos de la ética para diseñar tecnología y procesos. Porque, hoy por hoy, todo apunta a que quienes dominan el diseño de la tecnología dejan la ética de costado.

Acabo con una cita de Bertrand Rusell que ha aparecido por aquí:

«El gran problema del mundo es que los locos y los fanáticos están siempre tan seguros de sí mismos, mientras que la gente más sabia está llena de dudas.«

Pues eso.