Se esfuerzan más en mejorar a los robots que a los humanos

He invertido unas cuantas horas en la lectura de Vida 3.0, el último libro de Max Tegmark, un físico teórico de MIT.

Me atrajo sobre todo conocer mejor la visión de un científico (me doctoré en Física enel MIT en una vida anterior) sobre el tema del subtítulo: «¿Qué significa ser humano en la era de la inteligencia artificial?»

El autor no proporciona una respuesta clara, dibujando hasta nueve escenarios, en algunos de los cuales los seres dotados artificialmente de una Inteligencia Artificial General convierten a los humanos en esclavos o simplemente los eliminan por redundantes e inútiles.

Más que entrar en un debate sobre estos escenarios, que sería por fuerza especulativo, me parece más importante abordar directamente dos de las hipótesis implícitas del autor, que en ningún momento cuestiona:

  • El desarrollo de una Inteligencia Artificial cada vez más avanzada es en la práctica inevitable.
  • Los seres (transhumanos o puramente robóticos) dotados de esas inteligencias serán superiores a los humanos.

Sobre la primera de estas cuestiones, el propio Tegmark, entrevistado en El País, afirma que:

«Hay una gran presión económica para hacer que los humanos sean obsoletos.»

Una afirmación que invalida su calificación de los científicos que, como él mismo, impulsan el desarrollo acelerado de la IA:

«Muchos de los líderes tecnológicos que están construyendo la IA son muy idealistas.»

Porque, o bien son tan ingenuos que no desconocen la naturaleza de los intereses económicos que financian sus trabajos, o bien son conscientes de ello, pero no les importa, en cuyo caso son cómplices de los mismos.

No pretendo aquí añadir nada al debate sobre los objetivos y las batallas de riqueza y poder que subyacen al impulso visible en el desarrollo rápido de la IA, que se aborda ya en las publicaciones económicas convencionales, como en este artículo de The Economist.

Me interesa más señalar que la prioridad y la atención que se manifiesta en el objetivo de aumentar (exponencialmente) las capacidades de la IA no tiene un paralelo equivalente en el aumento de las capacidades de los humanos. El énfasis, en creadores de opinión influyentes como el World Economic Forum y las escuelas de negocios, se pone como mucho en cómo adaptarse o cómo sobrevivir en una sociedad dominada por esas nuevas tecnologías; o sobre cómo proteger a los que (inevitablemente) resultarán perjudicados.

(Para ser riguroso, tendría que haber escrito «en una sociedad dominada por quienes acaben dominando esas tecnologías«).

Para tratar esta cuestión habrá que adentrarse en el terreno de las políticas, o en la construcción de instituciones capaces de diseñar y desarrollar políticas a la altura del reto. Recordando la recomendación que Georges Lakoff hizo hace ya un tiempo en otro contexto: «Conoce tus valores y enmarca el debate«.

Porque, a la luz de lo que está emergiendo alrededor de los efectos colaterales de Facebook y similares, no podemos aceptar el punto de vista de quienes sostienen que «El problema no son las redes sociales… es la naturaleza humana«, cuando precisamente el modo en que estas redes sociales se desarrollan es explotando de modo consciente flaquezas humanas para acumular dinero y poder. Dando malignamente por sentado un concepto de progreso que da prioridad al desarrollo de las redes que a la mejora de la naturaleza humana.

Porque aceptar el debate en los términos que lo plantean los tecnófilos y quienes les financian es perder la batalla de lo humano ya antes de empezar.

¿Por dónde empezar, preguntará quizá alguno? Pues por reflexiones de obras como «Nueva ilustración radical» o «Esperanza en la oscuridad«, por poner sólo dos ejemplos.

¿Quién se apuntaría alguien a un club de lectura sobre estos temas?

Viñetas:

 

 

 

 

Cuando su ‘nosotros’ es nuestro ‘ellos’, por ahora

Foto: Miguel Orós


«En el terreno técnico repetidamente nos involucramos en diversos contratos sociales, las condiciones de los cuales se revelan sólo después de haberlos firmado.» (Langdon Winner)


La reflexión de Berners-Lee sobre Internet comentada en una entrada anterior nos alerta de que el impacto social de la tecnología no es siempre ni el deseado ni el previsto. Ha sido así en el pasado, y no hay motivos para creer que dejará de ser así en adelante, en particular con las tecnologías que se engloban bajo el lema de la Revolución Industrial 4.0: la inteligencia artificial, el Big Data, la Internet de las cosas, la robótica, la realidad aumentada y algunas que seguramente olvido.


«Se busca en vano entre los promotores y agitadores del campo de los ordenadores las cualidades de conocimiento social y político que caracterizaban a los revolucionarios del pasado. (Langdon Winner)


Parece pues obligado leer con precaución, cuando no con desconfianza, los argumentos del ‘status quo’, como el World Economic Forum a favor de esa nueva revolución tecnológica. Usaré como ejemplo una publicación reciente: «Robots have been taking our jobs for 50 years, so why are we worried?«. Su argumento central es ya  toda una declaración de principios:

«A medida que la Industria 4.0 sea más inteligente y más ampliamente disponible, los productores de todos los tamaños tendrán la capacidad de desplegar como estándar coste-efectivo máquijas colaborativas y multipropósito. Ello resultará en crecimiento industrial y competitividad del mercado.»

El impulso al desarrollo de esa tecnología 4.0 se da por hecho, aún admitiendo la incertidumbre sobre «el impacto exacto que una fuerza de trabajo robótica con el potencial de operar de forma autónoma tendrá en la industria productiva». Se cita como precedente que cuando la introducción de una tecnología ha convertido a los humanos en redundantes «les ha forzado a adaptarse», lo cual es también una declaración de valore. Unos deciden desarrollar e implantar una tecnología; otros se ven forzados a adaptarse. Aunque esta adaptación forzosa suponga, por ejemplo, el desacople entre los aumentos de productividad y los salarios que viene constatándose desde hace ya algunas décadas. Lo que se sí se argumenta es que en un escenario ideal, la Industria 4.0 «permitiría a las personas enfocarse más en aquello que nos hace humanos«. Posible, pero improbable. Porque, como observa un académico en ciernes, «entendemos mucho mejor cómo trabajan los robots que cómo lo hacemos nosotros». Pero, sobre todo, porque se omite todo detalle sobre las características de este escenario ideal, sobre cómo construirlo, así como el modo de combatir la aparición de otros escenarios menos ideales impulsados desde el lado oscuro.

El artículo cierra con una frase deliberadamente ambigua:

«En último término, nos corresponde a nosotros definir si la fuerza de trabajo robótica trabajará para nosotros, con nosotros o contra nosotros.«

Ambigua, porque la naturaleza de este nosotros no queda en absoluto clara. Alguien observó certeramente que «cuando se habla en nombre del pueblo es que no se tiene argumentos creíbles y sensatos«. Pues eso. Me temo que, por lo menos de momento, su ‘nosotros’ es nuestro ‘ellos’.

WWW: La tragedia de las buenas intenciones

Imagen: Berners-Lee en el CERN en 1994. © 1994–2018 Cern.

En una entrevista en Vanity Fair, Tim Berners-Lee, el inventor de la Web, afirma que:

«Hemos demostrado que la Web ha fallado a la Humanidad en lugar de servirla, como se suponía que debía haber hecho.»

Habla de la creciente centralización de la Web, del escándalo de Facebook y Cambridge Analytica, de la influencia en la elección de Donald Trump, del asalto a la privacidad individual por parte de empresas y Gobiernos, del crecimiento de las desigualdades. La lista de efectos secundarios negativos es larga y relevante.

Lo que acongoja a Berners-Lee es que esos daños colaterales se han producido no sólo sin una acción deliberada de las personas que diseñaron la plataforma, sino incluso en contra de sus buenas intenciones.

“El espíritu inicial era el de algo muy descentralizado. Empoderar al individuo de una forma increíble. Todo se basaba en la ausencia de una autotidad central a la que tuvieras que pedir permiso. Este sentimiento de control individual, de empoderamiento, es algo que hemos perdido.»

La clave, ahora evidente, es que Berners-Lee regaló su innovación al mundo sin condiciones. Esperando que fuera una plataforma para lo mejor pero sin incluir protecciones contra lo peor. Hay algo que aprender de esa tragedia personal, de la que Berners-Lee afirma sentirse en parte responsable.

Pero lo es sólo en parte, porque el estado actual de la Web no sería tal sin la negligencia o falta de visión de millones de usuarios, consumidores y ciudadanos perezosos, que durante décadas hemos firmado, sin siquiera leerlo, el consentimiento hacia el modo en que los Googles y Facebooks usan nuestros datos y acumulan dinero y poder.

También hay que apuntar a la falta de escrúpulos sociales de la industria de capital riesgo que se apuntó enseguida a explotar a su favor la ideología del winner-takes-it-all, hoy dominante en el mundo de la tecnología.

Y no pasar por alto la falta de visión (o directamente negligencia) de los poderes públicos que no intervinieron a tiempo para establecer unas reglas de juego alternativas al despliegue de la Web y sus aplicaciones, apoyando sin espíritu crítico las estrategias de aquellos cuyo dominio hoy cuestionan.

Valdría la pena, pienso, tomar conciencia de esta historia ante el despliegue de la propaganda sobre las bondades de la nueva ola tecnológica 4.0. La mayoría de la gente cree que Internet es buena para ellos como individuos, pero no tanto para la sociedad. Se equivocan. Del mismo modo que lo hacen quienes caen en la falacia de la superioridad ilusoria (la que tiene lugar cuando la mayoría de individuos de un colectivo cree ser superior a la media de ese mismo colectivo).

Más sobre todas estas cosas en próximas entradas.

 

 

 

 

Internautas: ¿egoístas o inconscientes?

Los resultados de una encuesta del Pew Research Center entre internautas habituales en EEUU dan que pensar sobre la relación entre progreso tecnológico y progreso social. Como se refleja en la gráfica,

  • Una proporción significativa (y creciente) de los que consideran que Internet es bueno para ellos no cree que sea bueno para la sociedad. Esta proporción es aún mayor en los segmentos de mayor edad.
  • En sentido contrario, lo que consideran que Internet no es bueno para ellos, o que se da una mezcla de bueno y malo, piensan que lo mismo sucede en mayor proporción para la sociedad.

Una interpretación plausible pasaría por considerar que los datos son el reflejo de una sociedad individualista.

Pero es a la vez posible que apunten a un conocido sesgo cognitivo: la mayoría de los estudiantes en las escuelas de élite creen que son mejores que la media de sus compañeros; la mayoría de las personas creen que son menos sectarias que la media. Quizá, piensen algunos, el usuario medio no sepa protegerse de los riesgos, pero yo controlo. Etcétera.

Los resultados de otra encuesta de la misma fuente, esta vez sobre la percepción del impacto de los ‘social media‘, entre los más jóvenes (89% de los cuales se conectan como mínimo varias veces al día) proporcionan un motivo adicional de reflexión : Sólo el 31% de los jóvenes encuestados considera que el efecto de los ‘social media‘ sea positivo, mientras que el 24% considera que son mayormente nocivos y el resto no se manifiesta claramente en uno u otro sentido.

Recuerdo una vez más un cita de Langdon Winner:

«En el terreno técnico nos involucramos repetidamente en diversos contratos sociales, las condiciones de los cuales se revelan sólo después de haberlos firmado.«

Con un único matiz:

  • Ningún (o casi ningún) usuario de los social media ni de servicios de Internet se lee el contrato que le da acceso al servicio. ¿Qué diríamos de quien hace lo mismo al comprometerse con una ‘empresa convencional’?
  • ¿Quién ha firmado el contrato de nuestra sociedad con los Facebook, Google, etc.?

 

Zuckerberg: ¿Un dictador benevolente?

Mark Zuckerberg ha cumplido una de sus promesas. aunque quizá no del modo en que lo imaginaba.

Hace unos años. en una carta dirigida a los potenciales accionistas en ocasión de la salida a Bolsa de Facebook, su CEO manifestaba que

«Tenemos un lema: Move fast and break things.«

Con el incidente de Cambridge Analytica y su posterior gestión, Facebook ha quebrado, en efecto, la confianza de inversores y usuarios bien intencionados, a una escala que The Economist califica como un fallo épico (epic fail‘) en una implacable imagen de portada.

Sería demasiado fácil añadir más madera a la ya abundante leña publicada sobre el árbol caído. Aparte de recomendar la lectura, con la perspectiva de hoy, de la comunicación de 2012 a sus futuros accionistas, me interesa comentar un aspecto de las manifestaciones que Zuckerberg hace acerca de su visión del futuro en una entrevista en Vox.

Empieza confirmando su afirmación anterior de que Facebook se parece más a un gobierno que a una empresa tradicional, ofreciéndose como árbitro y regulador de enfrentamientos que tienen lugar en su red:

«La gente comparte muchos contenidos y en ocasiones hay disputas acerca de si un contenido es aceptable […] Estamos en la posición, más que otras compañías, de arbitrar en estas disputas entre diferentes miembros de nuestra comunidad. Y para ello hemos tenido que construir un conjunto completo de políticas y de gobernanzas.»

A continuación, aún admitiendo que «no es evidente que una oficina en California sea la mejor ubicación para determinar políticas para gentes de todo el mundo» se reafirma en su objetivo de intentarlo, adoptando el rol de un dictador benevolente.

«Mi objetivo es crear una estructura de gobernanza en torno a los contenidos y la comunidad que refleje mejor lo que la gente quiere que lo que puedan querer los accionistas orientados al corto plazo.»

Aún admitiendo que Zuckerberg sea sincero, ¿se trata de un objetivo realista? ¿Es concebible que pueda crearse de arriba hacia abajo una tal estructura de gobernanza para una colectivo tan amplio? Más aún cuando, aunque Zuckerberg insista en lo contrario, el colectivo de usuarios de Facebook no constituye una comunidad – según Facebook sólo un 5% de sus usuarios forman parte de grupos con sentido. Para la mayoría, su común unidad se limita a utilizar Facebook.

La misma reserva, dicho sea de paso, puede aplicarse a muchas de las propuestas de regular Facebook desde los poderes públicos, aunque sólo sea porque muchas Administraciones tienen también tendencias de dictador benevolente.

Una alternativa sería, en la línea de las propuestas de la Premio Nobel de Economía Elinor Olson, dar a los usuarios la capacidad de crear sus propias reglas. La dificultad, claro está, es que ello exigiría al dictador benevolente y a sus accionistas dos compromisos radicales.

  1. Considerar como bien común los contenidos que aportan los usuarios.
  2. Adoptar los principios de diseño bottom-up de comunidades, en la línea de los propuestos por Elinor Ostrom (accesibles aquí), que configuran un tipo de organización en varios niveles, cada uno de ellos autogestionado.

Una propuesta que a buen seguro encontrará muchas resistencias, porque conllevaría la obligación de gestionar independientemente la red social y el negocio publicitario de Facebook, y por extensión el de empresas con un modelo de negocio similar.

¿Qué esperar pues? Pienso, y me gustaría equivocarme, que poco progreso a corto plazo. Porque los dictadores benevolentes también tienen su tribu.

 

No es la inteligencia artificial lo que da miedo

El suplemento Ideas de El País de 18/3/2018, dedicado en buena parte a la inteligencia artificial, es un ejemplo de la promoción acrítica de una versión sesgada del progreso tecnológico y su impacto social (ya desde el imperativo «debemos» del titular principal).

(En el interior (de la edición papel), otro titular Lo que los coches pueden enseñarnos sobre los robots«) utiliza un léxico asimismo discutible, dado que es obvio que los coches no van a enseñarnos nada).

«Los tribunales y la sociedad en general tardaron un tiempo en entender tanto los aspectos técnicos del coche, como los problemas que planteaba el tráfico.»

Sí podemos aprender algo de la historia social de la introducción del automóvil, y en particular de su regulación. Como bien señala la articulista, las normas y restricciones sobre el uso del automóvil no se centraron inicialmente tanto en los aspectos técnicos de los vehículos como en los cambios en ordenación del espacio público tras la aparición de ese nuevo artefacto. Algo que en su momento incluyó innovaciones como carriles, señales de tráfico, zonas de aparcamiento en la calle, semáforos y pasos de peatones.

Ahora bien, cuando observamos el impacto global del automóvil en la ciudad, en aspectos como la proporción de espacio público que ocupa o su incidencia en la contaminación, ¿podemos estar igualmente satisfechos de cómo se ha regulado socialmente la proliferación del automóvil privado? ¿Qué hubiera pasado si, por ejemplo, se hubiera dado preferencia desde un primer momento al desarrollo del transporte público? Imagino que quien lo intentara encontraría una enorme presión en contra de los emprendedores de la industria del automóvil y de sus inversores, así como la reivindicación de los derechos individuales de los (inicialmente privilegiados) primeros usuarios del automóvil.

«Las tecnologías alternativas no son las que determinan cambios en las relaciones sociales; son más bien el reflejo de esos cambios.» (David Noble, «Forces of Production: A Social History of Industrial Automation»).

Pero sigamos a la articulista y aceptemos que la historia (y las consecuencias) de la introducción del automóvil pueden ayudarnos a pensar sobre la introducción (y las consecuencias) de la inteligencia artificial. Una primera conclusión sería entonces que, si a algo tenemos que temer, no es a la inteligencia artificial (tampoco tenemos miedo de los motores de explosión), sino a las motivaciones, la ética y la responsabilidad social las personas y grupos sociales que las diseñan, financian, despliegan y promueven.

No podemos a este respecto coincidir con la articulista cuando propone que:

«Son los ingenieros, los científicos de datos, así como los departamentos de marketing y los Gobiernos que usen o tengan que regular dichas tecnologías, quienes deben comprender la dimensión social y ética de la inteligencia artificial.«

No podemos hacerlo, porque precisamente historias como la del automóvil (o más recientemente la de la Web 2.0 y las redes sociales, por poner sólo un ejemplo) no conducen precisamente a confiar en exclusiva a esos colectivos la comprensión de las dimensiones éticas y sociales de las tecnologías. (Ver el artículo sobre robots sexuales en el mismo suplemento).

«Me parece asombroso que los tecnoevangelistas hagan alarde de que puede ofrecer una suerte de eterno progreso a la humanidad; sin embargo, tan pronto se les confronta con cuestiones éticas caen en el determinismo y el fatalismo.» (Rob Riemen, «Para combatir esta era«)

Otro artículo en el mismo suplemento, también sobre la inteligencia artificial, concluye que:

«Es necesario aumentar la conciencia sobre los límites de la IA, así como actuar de forma colectiva para garantizar que se utilice en beneficio del bien común con seguridad, fiabilidad y responsabilidad.»

Una conclusión bien intencionada, razonada y razonable. Si no fuera porque los recursos destinados a esa actuación colectiva para garantizar el bien común son mucho menores que los que utilizan quienes no consideran el bien común como su prioridad ni su responsabilidad.

¿Hacia una humanidad subconsciente?

«Cuando el lenguaje pierde el significado, no puede existir ninguna forma de verdad y la mentira se convierte en norma.» (Rob Riemen, «Para combatir esta era«).

«Sentimos que aún cuando todas las posibles cuestiones de la ciencia hayan recibido respuesta, nuestros problemas vitales todavía no se han rozado en lo más mínimo
(Wittgenstein, «Tractatus»,   6-52)

José M. Lassalle, que como secretario de Estado de la Sociedad de la Información y Agenda Digital en el Gobierno del Estado deber saber de qué habla, afirma en la prensa («¿Fake Humans?«) que:

«Nos acercamos a los umbrales de un tiempo histórico que nos hará definitivamente digitales. De hecho, ya casi lo somos […]. El año 2020 está ahí. Con él, el despliegue de unas tecnologías habilitadoras que, sin posibilidad de retorno, cambiarán los imaginarios culturales, los relatos políticos y los paradigmas económicos del planeta.»

Lo hace con absoluta seguridad, con ese contundente «sin posiblidad de retorno». Quizá porque reconoce (o tal vez conoce de primera mano) el poder de las fuerzas (ocultas para la mayoría) que impulsan esta transformación. Unas fuerzas tan poderosas que, según afirma con la misma seguridad, configuran

«Un ecosistema que nos habrá hecho rebasar el dintel de la posthumanidad sin consultarnos, y que hoy en día se está modelando sin pensamiento crítico ni pacto social y político que establezca derechos y obligaciones entre los actores que participan en él.»

Lassalle intuye que más allá de ese ‘dintel de la posthumanidad’  se configurará un territorio para ‘fake humans’. Si bien no entra a definir en qué los fake se diferenciarían de los ‘truly humans’, parace sumarse al bando de quienes intuyen que se trataría de una algún tipo de humanidad menos consciente.

Las máquinas no piensan: calculan. Observamos que se promueven unas tecnologías de la información que mecanizan la conciencia, al apelar a los automatismos del subconsciente (el Sistema 1 de Kahneman), desviando la atención de la reflexión y el pensamiento consciente. Incluso Arianna Huffington, que ganó su fama y fortuna en Internet, avisa que:

«La tecnología es estupenda para proporcionarnos lo que creemos que queremos, pero no necesariamente lo que necesitamos. En la economía de la atención, nuestra atención es monetizable y la sofisticación de las técnicas utilizadas para socavarla están sobrepasando a ritmo exponencial nuestra capacidad para protegerla.»

Promueven también una versión de la tecnología cognitiva y la inteligencia artificial que tienden a mecanizar nuestros procesos de pensamiento. A este respecto, Tim Cook, el CEO de Apple, expresa  que:

«No me preocupan que las máquinas puedan pensar como las personas. Me preocupan las personas que piensen como máquinas.»

Antes de plantear qué hacer al respecto para protegernos de esos riesgos o, aún mejor, para combatir sus causas, conviene quizá considerar que la tendencia de fondo es incluso anterior a la invención de Internet. ¿Cómo se explica si no, la reflexión de Erich Fromm en «La revolución de la esperanza« (1968):

«Un nuevo espectro anda al acecho entre nosotro: una sociedad completamente mecanizada, dedicada a la máxima producción y al máximo consumo materiales y dirigida por máquinas computadoras. En el consiguiente proceso social, el hombre mismo, bien alimentado y divertido, aunque pasivo, apagado y poco sentimental, está siendo transformado en una parte de la maquinaria total. Con la victoria de la nueva sociedad, el individualismo y la privacidad desaparecerán, los sentimientos hacia los demás serán dirigidos por condicionamiento psicológico y otros expedientes de igual índole, o por drogas, que también proporcionarán una nueva clase de experiencia introspectiva«.

Algo así como en esta escena de Wall-E. Continuará.

#Tech4Who’sGood

En una entrada anterior proponía evitar caer en la trampa de la elección binaria entre #Tech4Good y #Tech4Bad, de modo que la reflexión y el debate partiera de una cuestión abierta, como #Tech4What.

«El ritmo de innovación tecnológica es impresionante. Está teniendo impacto en prácticamente todos los aspectos de nuestras vidas. Y lo continuará haciendo – de muchos modos que no podemos todavía imaginar.»

Esta cita, extraída de un artículo de una profesora de la London Business School sobre los robots y el futuro del trabajo me motiva a añadir a la anterior otra pregunta abierta: #Tech4Who’sGood.

El impulso a la tecnología, en este caso a la robotización guiada por inteligencia artificial, no tiene lugar espontáneamente. Nada lo hace. Para explicar la dinámica de los cuerpos materiales, Newton propuso su famosa ecuación «F = m*a«; si un cuerpo se acelera es porque actúa sobre él alguna fuerza. De hecho, las escuelas de negocios de élite enseñan precisamente éso a quienes pueden pagar la matrícula: a participar de las fuerzas que conforman el futuro («El futuro pertenece a los líderes, te pertenece«, leo en un banner de la London Business School).

Como era de esperar, la profesora de la LBS tiene presente una de las causas de este fenómeno:

«Quizá este futuro es indescifrable a largo plazo – más de 1o años – pero hay señales que nos pueden ayudar a pensar acerca del corto y medio plazo […] Una señal a observar es a dónde va el dinero de los inversores.»

Omite, sin embargo que, como Carlota Pérez y otros autores han mostrado, la inversión en épocas como la actual está impulsada por capital especulativo, entre cuyas prioridades está la apropiación de los beneficios de la innovación, pero no la responsabilidad de los daños colaterales que ésta pueda producir. En el pasado, el deterioro ecológico. En el futuro inmediato, tal vez un deterioro social consecuencia de la destrucción de empleos y el aumento de las desigualdades.

La trampa de argumentos de este estilo es presentar como una reflexión imparcial lo que en puridad es el resultado de una ideología (y axiología) que se desvela al llegar a las recomendaciones:

«Como individuos, como organizaciones y como sociedad tenemos que aceptar que las continuas innovaciones en tecnología tendrán grandes consecuencias en nuestras vidas […] Debemos aceptarlo. Tendremos que adaptarnos […] Hace falta solamente que seamos lo suficientemente ágiles – anticipándonos, adaptarándonos, aprendiendo – para captar el potencial de la tecnología.»

La necesidad de rebatir esa lógica me parece evidente. La propia autora da pie para ello al concluir al final de su panfleto que:

«No somos observadores pasivos […] Nos corresponde a todos explotar la tecnología en lugar de dejar que sea la tecnología la que determine la narrativa.»

Pero quien ‘determina la narrativa‘ no es la tecnología, sino las actuaciones de quienes, como la autora, defienden desde una posición de privilegio la lógica de quienes la conciben, financian, desarrollan e imponen.

Es cierto: faltan narrativas alternativas. ¿Las tendremos? Como la propia Carlota Pérez desgrana en esta entrevista, no podemos darlo por seguro. Como individuos aislados, buscando ‘soluciones individuales a las contradicciones del sistema(Bauman dixit) somos socialmente impotentes.  Necesitamos construir grupos, organizaciones e instituciones sociales capaces de generar alternativas prácticas a las que está imponiendo la lógica de los exponencialistas. Y sobre éso, sobre construir este tipo de organizaciones e instituciones, estamos todavía aprendiendo. Tema para próximas entradas.

Una mirada sobre la creación

Es frecuente encontrar en la red imágenes reminiscentes del fresco de Miguel Angel sobre «La creación de Adán» en la Capilla Sixtina, pero referidas a la interacción entre humanos y robots, no entre la Divinidad y la Humanidad.

Preparando una charla en la que utilizaba una estas imágenes me encontré reflexionando sobre las diferentes lecturas que permite la confrontación con una composición de este tipo.

Uso aquí el término confrontación a conciencia, porque pienso que una imagen así debería interpelarnos, hacernos reflexionar.

En primer lugar, porque invoca de modo inevitable a nuestro subconsciente, que a buen seguro guarda el recuerdo y la interpretación del original de Miguel Angel. Se trata de un acto de creación en que la Divinidad da vida a Adán, el primer ser humano según el Génesis.

La alusión a esa escena quiere a buen seguro sugerir que también hay un acto de creación en esa relación entre humanos y robots. Queda sin embargo abierta la interpretación de a quién corresponde en esta ocasión el papel del creador, el rol de la Divinidad. Al compararla con el original de la Capilla Sixtina, la imagen de la parte superior izquierda parece sugerir que es el robot, situado en la posición de la Divinidad, quien ejerce de creador, en tanto que el humano es el receptor de la creación. El mensaje subliminal sería en este caso que «la tecnología – a la que adoramos como si fuera la Divinidad – nos potenciará como humanos».

La otra imagen, en que las posiciones se invierten, podría sugerir lo contrario, atribuyendo al ser humano las capacidades de la Divinidad. De este modo la sugerencia sería «daremos vida (humana o casi humana) a las máquinas».

Las mismas imágenes pueden, sin embargo, hacernos pensar también en un futuro en que la proliferación de robots desplazan en algún sentido a los humanos. No sólo haciéndose cargo de trabajos, sino propiciando la atrofia de capacidades como la atención, la voluntad e incluso la conciencia, al caer en la tentación de ir cediéndolas a los androides.

Cada cual hará su interpretación. Porque, como reza el antiguo aforismo, «no vemos las cosas como son; vemos las cosas como somos«. El modo en que miramos no cambia la realidad, pero sí nuestra percepción de la realidad. No perdamos, por tanto, la conciencia de cómo miramos del modo en que miramos.

No perdamos tampoco la conciencia de que tenemos la capacidad de decidir cómo queremos mirar; desde qué perspectiva o punto de vista hacerlo. Porque escoger nuestra mirada puede ser también un acto de creación. Cuentan que el propio Miguel Ángel, cuestionado sobre el proceso de creación de La Piedad, respondió algo así como “La escultura ya estaba dentro de la piedra. Yo, únicamente, he debido eliminar el mármol que le sobraba”. Pues eso.