No es la inteligencia artificial lo que da miedo

El suplemento Ideas de El País de 18/3/2018, dedicado en buena parte a la inteligencia artificial, es un ejemplo de la promoción acrítica de una versión sesgada del progreso tecnológico y su impacto social (ya desde el imperativo «debemos» del titular principal).

(En el interior (de la edición papel), otro titular Lo que los coches pueden enseñarnos sobre los robots«) utiliza un léxico asimismo discutible, dado que es obvio que los coches no van a enseñarnos nada).

«Los tribunales y la sociedad en general tardaron un tiempo en entender tanto los aspectos técnicos del coche, como los problemas que planteaba el tráfico.»

Sí podemos aprender algo de la historia social de la introducción del automóvil, y en particular de su regulación. Como bien señala la articulista, las normas y restricciones sobre el uso del automóvil no se centraron inicialmente tanto en los aspectos técnicos de los vehículos como en los cambios en ordenación del espacio público tras la aparición de ese nuevo artefacto. Algo que en su momento incluyó innovaciones como carriles, señales de tráfico, zonas de aparcamiento en la calle, semáforos y pasos de peatones.

Ahora bien, cuando observamos el impacto global del automóvil en la ciudad, en aspectos como la proporción de espacio público que ocupa o su incidencia en la contaminación, ¿podemos estar igualmente satisfechos de cómo se ha regulado socialmente la proliferación del automóvil privado? ¿Qué hubiera pasado si, por ejemplo, se hubiera dado preferencia desde un primer momento al desarrollo del transporte público? Imagino que quien lo intentara encontraría una enorme presión en contra de los emprendedores de la industria del automóvil y de sus inversores, así como la reivindicación de los derechos individuales de los (inicialmente privilegiados) primeros usuarios del automóvil.

«Las tecnologías alternativas no son las que determinan cambios en las relaciones sociales; son más bien el reflejo de esos cambios.» (David Noble, «Forces of Production: A Social History of Industrial Automation»).

Pero sigamos a la articulista y aceptemos que la historia (y las consecuencias) de la introducción del automóvil pueden ayudarnos a pensar sobre la introducción (y las consecuencias) de la inteligencia artificial. Una primera conclusión sería entonces que, si a algo tenemos que temer, no es a la inteligencia artificial (tampoco tenemos miedo de los motores de explosión), sino a las motivaciones, la ética y la responsabilidad social las personas y grupos sociales que las diseñan, financian, despliegan y promueven.

No podemos a este respecto coincidir con la articulista cuando propone que:

«Son los ingenieros, los científicos de datos, así como los departamentos de marketing y los Gobiernos que usen o tengan que regular dichas tecnologías, quienes deben comprender la dimensión social y ética de la inteligencia artificial.«

No podemos hacerlo, porque precisamente historias como la del automóvil (o más recientemente la de la Web 2.0 y las redes sociales, por poner sólo un ejemplo) no conducen precisamente a confiar en exclusiva a esos colectivos la comprensión de las dimensiones éticas y sociales de las tecnologías. (Ver el artículo sobre robots sexuales en el mismo suplemento).

«Me parece asombroso que los tecnoevangelistas hagan alarde de que puede ofrecer una suerte de eterno progreso a la humanidad; sin embargo, tan pronto se les confronta con cuestiones éticas caen en el determinismo y el fatalismo.» (Rob Riemen, «Para combatir esta era«)

Otro artículo en el mismo suplemento, también sobre la inteligencia artificial, concluye que:

«Es necesario aumentar la conciencia sobre los límites de la IA, así como actuar de forma colectiva para garantizar que se utilice en beneficio del bien común con seguridad, fiabilidad y responsabilidad.»

Una conclusión bien intencionada, razonada y razonable. Si no fuera porque los recursos destinados a esa actuación colectiva para garantizar el bien común son mucho menores que los que utilizan quienes no consideran el bien común como su prioridad ni su responsabilidad.

¿Hacia una humanidad subconsciente?

«Cuando el lenguaje pierde el significado, no puede existir ninguna forma de verdad y la mentira se convierte en norma.» (Rob Riemen, «Para combatir esta era«).

«Sentimos que aún cuando todas las posibles cuestiones de la ciencia hayan recibido respuesta, nuestros problemas vitales todavía no se han rozado en lo más mínimo
(Wittgenstein, «Tractatus»,   6-52)

José M. Lassalle, que como secretario de Estado de la Sociedad de la Información y Agenda Digital en el Gobierno del Estado deber saber de qué habla, afirma en la prensa («¿Fake Humans?«) que:

«Nos acercamos a los umbrales de un tiempo histórico que nos hará definitivamente digitales. De hecho, ya casi lo somos […]. El año 2020 está ahí. Con él, el despliegue de unas tecnologías habilitadoras que, sin posibilidad de retorno, cambiarán los imaginarios culturales, los relatos políticos y los paradigmas económicos del planeta.»

Lo hace con absoluta seguridad, con ese contundente «sin posiblidad de retorno». Quizá porque reconoce (o tal vez conoce de primera mano) el poder de las fuerzas (ocultas para la mayoría) que impulsan esta transformación. Unas fuerzas tan poderosas que, según afirma con la misma seguridad, configuran

«Un ecosistema que nos habrá hecho rebasar el dintel de la posthumanidad sin consultarnos, y que hoy en día se está modelando sin pensamiento crítico ni pacto social y político que establezca derechos y obligaciones entre los actores que participan en él.»

Lassalle intuye que más allá de ese ‘dintel de la posthumanidad’  se configurará un territorio para ‘fake humans’. Si bien no entra a definir en qué los fake se diferenciarían de los ‘truly humans’, parace sumarse al bando de quienes intuyen que se trataría de una algún tipo de humanidad menos consciente.

Las máquinas no piensan: calculan. Observamos que se promueven unas tecnologías de la información que mecanizan la conciencia, al apelar a los automatismos del subconsciente (el Sistema 1 de Kahneman), desviando la atención de la reflexión y el pensamiento consciente. Incluso Arianna Huffington, que ganó su fama y fortuna en Internet, avisa que:

«La tecnología es estupenda para proporcionarnos lo que creemos que queremos, pero no necesariamente lo que necesitamos. En la economía de la atención, nuestra atención es monetizable y la sofisticación de las técnicas utilizadas para socavarla están sobrepasando a ritmo exponencial nuestra capacidad para protegerla.»

Promueven también una versión de la tecnología cognitiva y la inteligencia artificial que tienden a mecanizar nuestros procesos de pensamiento. A este respecto, Tim Cook, el CEO de Apple, expresa  que:

«No me preocupan que las máquinas puedan pensar como las personas. Me preocupan las personas que piensen como máquinas.»

Antes de plantear qué hacer al respecto para protegernos de esos riesgos o, aún mejor, para combatir sus causas, conviene quizá considerar que la tendencia de fondo es incluso anterior a la invención de Internet. ¿Cómo se explica si no, la reflexión de Erich Fromm en «La revolución de la esperanza« (1968):

«Un nuevo espectro anda al acecho entre nosotro: una sociedad completamente mecanizada, dedicada a la máxima producción y al máximo consumo materiales y dirigida por máquinas computadoras. En el consiguiente proceso social, el hombre mismo, bien alimentado y divertido, aunque pasivo, apagado y poco sentimental, está siendo transformado en una parte de la maquinaria total. Con la victoria de la nueva sociedad, el individualismo y la privacidad desaparecerán, los sentimientos hacia los demás serán dirigidos por condicionamiento psicológico y otros expedientes de igual índole, o por drogas, que también proporcionarán una nueva clase de experiencia introspectiva«.

Algo así como en esta escena de Wall-E. Continuará.

#Tech4Who’sGood

En una entrada anterior proponía evitar caer en la trampa de la elección binaria entre #Tech4Good y #Tech4Bad, de modo que la reflexión y el debate partiera de una cuestión abierta, como #Tech4What.

«El ritmo de innovación tecnológica es impresionante. Está teniendo impacto en prácticamente todos los aspectos de nuestras vidas. Y lo continuará haciendo – de muchos modos que no podemos todavía imaginar.»

Esta cita, extraída de un artículo de una profesora de la London Business School sobre los robots y el futuro del trabajo me motiva a añadir a la anterior otra pregunta abierta: #Tech4Who’sGood.

El impulso a la tecnología, en este caso a la robotización guiada por inteligencia artificial, no tiene lugar espontáneamente. Nada lo hace. Para explicar la dinámica de los cuerpos materiales, Newton propuso su famosa ecuación «F = m*a«; si un cuerpo se acelera es porque actúa sobre él alguna fuerza. De hecho, las escuelas de negocios de élite enseñan precisamente éso a quienes pueden pagar la matrícula: a participar de las fuerzas que conforman el futuro («El futuro pertenece a los líderes, te pertenece«, leo en un banner de la London Business School).

Como era de esperar, la profesora de la LBS tiene presente una de las causas de este fenómeno:

«Quizá este futuro es indescifrable a largo plazo – más de 1o años – pero hay señales que nos pueden ayudar a pensar acerca del corto y medio plazo […] Una señal a observar es a dónde va el dinero de los inversores.»

Omite, sin embargo que, como Carlota Pérez y otros autores han mostrado, la inversión en épocas como la actual está impulsada por capital especulativo, entre cuyas prioridades está la apropiación de los beneficios de la innovación, pero no la responsabilidad de los daños colaterales que ésta pueda producir. En el pasado, el deterioro ecológico. En el futuro inmediato, tal vez un deterioro social consecuencia de la destrucción de empleos y el aumento de las desigualdades.

La trampa de argumentos de este estilo es presentar como una reflexión imparcial lo que en puridad es el resultado de una ideología (y axiología) que se desvela al llegar a las recomendaciones:

«Como individuos, como organizaciones y como sociedad tenemos que aceptar que las continuas innovaciones en tecnología tendrán grandes consecuencias en nuestras vidas […] Debemos aceptarlo. Tendremos que adaptarnos […] Hace falta solamente que seamos lo suficientemente ágiles – anticipándonos, adaptarándonos, aprendiendo – para captar el potencial de la tecnología.»

La necesidad de rebatir esa lógica me parece evidente. La propia autora da pie para ello al concluir al final de su panfleto que:

«No somos observadores pasivos […] Nos corresponde a todos explotar la tecnología en lugar de dejar que sea la tecnología la que determine la narrativa.»

Pero quien ‘determina la narrativa‘ no es la tecnología, sino las actuaciones de quienes, como la autora, defienden desde una posición de privilegio la lógica de quienes la conciben, financian, desarrollan e imponen.

Es cierto: faltan narrativas alternativas. ¿Las tendremos? Como la propia Carlota Pérez desgrana en esta entrevista, no podemos darlo por seguro. Como individuos aislados, buscando ‘soluciones individuales a las contradicciones del sistema(Bauman dixit) somos socialmente impotentes.  Necesitamos construir grupos, organizaciones e instituciones sociales capaces de generar alternativas prácticas a las que está imponiendo la lógica de los exponencialistas. Y sobre éso, sobre construir este tipo de organizaciones e instituciones, estamos todavía aprendiendo. Tema para próximas entradas.

Una mirada sobre la creación

Es frecuente encontrar en la red imágenes reminiscentes del fresco de Miguel Angel sobre «La creación de Adán» en la Capilla Sixtina, pero referidas a la interacción entre humanos y robots, no entre la Divinidad y la Humanidad.

Preparando una charla en la que utilizaba una estas imágenes me encontré reflexionando sobre las diferentes lecturas que permite la confrontación con una composición de este tipo.

Uso aquí el término confrontación a conciencia, porque pienso que una imagen así debería interpelarnos, hacernos reflexionar.

En primer lugar, porque invoca de modo inevitable a nuestro subconsciente, que a buen seguro guarda el recuerdo y la interpretación del original de Miguel Angel. Se trata de un acto de creación en que la Divinidad da vida a Adán, el primer ser humano según el Génesis.

La alusión a esa escena quiere a buen seguro sugerir que también hay un acto de creación en esa relación entre humanos y robots. Queda sin embargo abierta la interpretación de a quién corresponde en esta ocasión el papel del creador, el rol de la Divinidad. Al compararla con el original de la Capilla Sixtina, la imagen de la parte superior izquierda parece sugerir que es el robot, situado en la posición de la Divinidad, quien ejerce de creador, en tanto que el humano es el receptor de la creación. El mensaje subliminal sería en este caso que «la tecnología – a la que adoramos como si fuera la Divinidad – nos potenciará como humanos».

La otra imagen, en que las posiciones se invierten, podría sugerir lo contrario, atribuyendo al ser humano las capacidades de la Divinidad. De este modo la sugerencia sería «daremos vida (humana o casi humana) a las máquinas».

Las mismas imágenes pueden, sin embargo, hacernos pensar también en un futuro en que la proliferación de robots desplazan en algún sentido a los humanos. No sólo haciéndose cargo de trabajos, sino propiciando la atrofia de capacidades como la atención, la voluntad e incluso la conciencia, al caer en la tentación de ir cediéndolas a los androides.

Cada cual hará su interpretación. Porque, como reza el antiguo aforismo, «no vemos las cosas como son; vemos las cosas como somos«. El modo en que miramos no cambia la realidad, pero sí nuestra percepción de la realidad. No perdamos, por tanto, la conciencia de cómo miramos del modo en que miramos.

No perdamos tampoco la conciencia de que tenemos la capacidad de decidir cómo queremos mirar; desde qué perspectiva o punto de vista hacerlo. Porque escoger nuestra mirada puede ser también un acto de creación. Cuentan que el propio Miguel Ángel, cuestionado sobre el proceso de creación de La Piedad, respondió algo así como “La escultura ya estaba dentro de la piedra. Yo, únicamente, he debido eliminar el mármol que le sobraba”. Pues eso.

#Tech4What: La trampa de las preguntas binarias

Ship2B tuvo la bienintencionada pero arriesgada inciativa de incluir en el programa de 4YFN un taller sobre la cuestión «Tech4Good o Tech4Bad». Se nos pidió a los participantes, distribuidos en 7 u 8 grupos, que propusiéramos en unos 20 minutos tres iniciativas ‘potentes’ para catalizar intencionadamente un impacto social positivo de la tecnología.

Es un asunto importante, desde luego oportuno como para incluirse en la agenda de una organización como Ship2B centrada en el impacto social, pero que requiere (pienso) una reflexión y un proceso de exploración y debate mucho menos superficial que el posible en el tiempo y formato propuesto.

La temática del impacto de la tecnología en la sociedad, como el menos tratado del impacto de la sociedad en la tecnología, es un asunto demasiado complejo, multidimensional si se prefiere, para encapsularlo en una pregunta binaria.

El progreso tecnológico tendrá (ha tenido) efectos positivos, pero también negativos.

«No question, technological progress, just like trade, creates losers as well as winners. The Industrial Revolution involved hugely painful economic and social dislocations—though nearly everybody would now agree that the gains in human welfare were worth the cost» (The Economist, 27/09/2001)

Aceptemos que  en la mayoría de las ocasiones quienes impulsan el avance de la tecnología lo hacen con buenas intenciones (#tech4good); pero ello no excluye que generen efectos colaterales indeseados, además de una distribución por lo general nada democrática entre ganadores y perdedores. En particular, porque nadie se postula de entrada como perdedor.

Al mismo tiempo, la naturaleza humana, o el influjo de las fuerzas del mal, si se prefiere, tendrá como consecuencia inevitable que haya (los ha habido, los hay) quienes conciban, desarrollen, impulsen o utilicen la tecnología para fines socialmente censurables (#tech4bad).

«La revolución de los ordenadores es claramente silenciosa con respecto a sus propios fines. (Langdon Winner«, La ballena y el reactor).

Los que nos dedicamos ayudar a grupos u organizaciones en sus procesos de cambio sabemos de la dificultad frecuente en que se encuentran para responder con precisión y coherencia a una ‘pregunta poderosa’: «¿Para qué?«. Pienso que sería interesante someter a los convencidos del #Tech4Good a un cuestionamiento a fondo de sus convicciones.

«Hablan demasiado cuando convendría callar más. Todo son respuestas y casi no queda espacio para las preguntas que pueden no tener respuesta.» (Josep M. Esquirol, «La resistencia íntima«).

Porque los expertos han descrito el síndrome que denominan como ‘la ilusión del conocimiento’ (ver, por ejemplo, «The Knowledge Illusion«).  Cuando se interroga a fondo a gente sobre su conocimiento en detalle sobre temas en los que tienen una opinión bien formada, una buena parte acaba por admitir, siempre ‘a posteriori’, estar mucho menos seguros de su conocimiento en profundidad de la materia. Sería ilustrativo hacer este experimento sobre los efectos de la tecnología. ¿Alguien se apunta?

 

La trampa de la comodidad: el asalto a la voluntad

Viñeta: The New Yorker, 27/03/2017

El debate sobre los efectos colaterales de la proliferación acrítica de las redes sociales se ha puesto (por fin) de actualidad. Valga como muestra este  artículo a doble página en El País , («Rebelión contra las redes sociales«, 17/02/2018), tildándolas de «Manipuladoras de la atención. Vehículo de noticias basura. Oligopolios sin control.»

Hace tiempo que estábamos avisados (Langdon Winner, «La ballena y el reactor«) de que:

«La construcción de un sistema técnico que involucra a seres humanos como partes de su funcionamiento requiere una reconstrucción de los roles y las relaciones sociales.«

Lo que emerge ahora es la conciencia de que el despliegue de algunas tecnologías tiene también como consecuencia la reconstrucción (de-construcción, tal vez) de la esencia de lo humano. El modelo de negocio de las redes sociales se basa en captar la mayor cuota posible de la atención de sus usuarios. Con la consecuencia práctica de minar su capacidad de prestar atención a otras asuntos más merecedores de ella.

Pero vemos ahora cómo emerge un frente adicional de asalto a la conciencia. Como observa Tim Wu en The New York TimesThe Tyranny of Convenience«):

«La comodidad está emergiendo como quizá la fuerza más poderosa que conforma nuestras vidas individuales y nuestras economías.«

La proliferación de servicios basados en la comodidad apunta a un efecto sobre el ejercicio de la voluntad similar al de los contenidos sociales sobre la atención. El objetivo es en ambos casos soslayar el ejercicio de la conciencia. De la decisión consciente de en dónde concentrar la atención. De la práctica consciente de ejercitar la voluntad para superar obstáculos. Para, en ambos casos, explotar económicamente actuaciones en que el usuario actúa guiado por hábitos, pulsiones o instintos subconscientes. Porque precisamente esos, al ser automáticos, resultan también los más previsibles.

Sería imprudente considerar que se trata de un fenómeno casual. Los inversores / especuladores que promueven la innovación disruptiva han sabido sacar provecho de la ‘deconstrucción’ de roles y relaciones sociales en ámbitos como los medios de comunicación (Google, Facebook), el turismo (Airbnb) o el transporte (Uber) o la contratación de personal (Deliveroo y similares). Con este precedente, no parece descabellado especular que intenten lo mismo la explotación del subconsciente.

Lo que subyace es un déficit de ética y también de teoría social en los discursos y prácticas que emanan de Silicon Valley. Déficits que se encarnan en personas, empresas y organizaciones que tienen clara conciencia de sus propósitos y una férrea voluntad de alcanzarlos. En su propio (quizá exclusivo) beneficio. El mal existe, dicen por ahí, y es distinto de la ausencia de bien. Atentos.