No es la inteligencia artificial lo que da miedo

El suplemento Ideas de El País de 18/3/2018, dedicado en buena parte a la inteligencia artificial, es un ejemplo de la promoción acrítica de una versión sesgada del progreso tecnológico y su impacto social (ya desde el imperativo «debemos» del titular principal).

(En el interior (de la edición papel), otro titular Lo que los coches pueden enseñarnos sobre los robots«) utiliza un léxico asimismo discutible, dado que es obvio que los coches no van a enseñarnos nada).

«Los tribunales y la sociedad en general tardaron un tiempo en entender tanto los aspectos técnicos del coche, como los problemas que planteaba el tráfico.»

Sí podemos aprender algo de la historia social de la introducción del automóvil, y en particular de su regulación. Como bien señala la articulista, las normas y restricciones sobre el uso del automóvil no se centraron inicialmente tanto en los aspectos técnicos de los vehículos como en los cambios en ordenación del espacio público tras la aparición de ese nuevo artefacto. Algo que en su momento incluyó innovaciones como carriles, señales de tráfico, zonas de aparcamiento en la calle, semáforos y pasos de peatones.

Ahora bien, cuando observamos el impacto global del automóvil en la ciudad, en aspectos como la proporción de espacio público que ocupa o su incidencia en la contaminación, ¿podemos estar igualmente satisfechos de cómo se ha regulado socialmente la proliferación del automóvil privado? ¿Qué hubiera pasado si, por ejemplo, se hubiera dado preferencia desde un primer momento al desarrollo del transporte público? Imagino que quien lo intentara encontraría una enorme presión en contra de los emprendedores de la industria del automóvil y de sus inversores, así como la reivindicación de los derechos individuales de los (inicialmente privilegiados) primeros usuarios del automóvil.

«Las tecnologías alternativas no son las que determinan cambios en las relaciones sociales; son más bien el reflejo de esos cambios.» (David Noble, «Forces of Production: A Social History of Industrial Automation»).

Pero sigamos a la articulista y aceptemos que la historia (y las consecuencias) de la introducción del automóvil pueden ayudarnos a pensar sobre la introducción (y las consecuencias) de la inteligencia artificial. Una primera conclusión sería entonces que, si a algo tenemos que temer, no es a la inteligencia artificial (tampoco tenemos miedo de los motores de explosión), sino a las motivaciones, la ética y la responsabilidad social las personas y grupos sociales que las diseñan, financian, despliegan y promueven.

No podemos a este respecto coincidir con la articulista cuando propone que:

«Son los ingenieros, los científicos de datos, así como los departamentos de marketing y los Gobiernos que usen o tengan que regular dichas tecnologías, quienes deben comprender la dimensión social y ética de la inteligencia artificial.«

No podemos hacerlo, porque precisamente historias como la del automóvil (o más recientemente la de la Web 2.0 y las redes sociales, por poner sólo un ejemplo) no conducen precisamente a confiar en exclusiva a esos colectivos la comprensión de las dimensiones éticas y sociales de las tecnologías. (Ver el artículo sobre robots sexuales en el mismo suplemento).

«Me parece asombroso que los tecnoevangelistas hagan alarde de que puede ofrecer una suerte de eterno progreso a la humanidad; sin embargo, tan pronto se les confronta con cuestiones éticas caen en el determinismo y el fatalismo.» (Rob Riemen, «Para combatir esta era«)

Otro artículo en el mismo suplemento, también sobre la inteligencia artificial, concluye que:

«Es necesario aumentar la conciencia sobre los límites de la IA, así como actuar de forma colectiva para garantizar que se utilice en beneficio del bien común con seguridad, fiabilidad y responsabilidad.»

Una conclusión bien intencionada, razonada y razonable. Si no fuera porque los recursos destinados a esa actuación colectiva para garantizar el bien común son mucho menores que los que utilizan quienes no consideran el bien común como su prioridad ni su responsabilidad.

¿Hacia una humanidad subconsciente?

«Cuando el lenguaje pierde el significado, no puede existir ninguna forma de verdad y la mentira se convierte en norma.» (Rob Riemen, «Para combatir esta era«).

«Sentimos que aún cuando todas las posibles cuestiones de la ciencia hayan recibido respuesta, nuestros problemas vitales todavía no se han rozado en lo más mínimo
(Wittgenstein, «Tractatus»,   6-52)

José M. Lassalle, que como secretario de Estado de la Sociedad de la Información y Agenda Digital en el Gobierno del Estado deber saber de qué habla, afirma en la prensa («¿Fake Humans?«) que:

«Nos acercamos a los umbrales de un tiempo histórico que nos hará definitivamente digitales. De hecho, ya casi lo somos […]. El año 2020 está ahí. Con él, el despliegue de unas tecnologías habilitadoras que, sin posibilidad de retorno, cambiarán los imaginarios culturales, los relatos políticos y los paradigmas económicos del planeta.»

Lo hace con absoluta seguridad, con ese contundente «sin posiblidad de retorno». Quizá porque reconoce (o tal vez conoce de primera mano) el poder de las fuerzas (ocultas para la mayoría) que impulsan esta transformación. Unas fuerzas tan poderosas que, según afirma con la misma seguridad, configuran

«Un ecosistema que nos habrá hecho rebasar el dintel de la posthumanidad sin consultarnos, y que hoy en día se está modelando sin pensamiento crítico ni pacto social y político que establezca derechos y obligaciones entre los actores que participan en él.»

Lassalle intuye que más allá de ese ‘dintel de la posthumanidad’  se configurará un territorio para ‘fake humans’. Si bien no entra a definir en qué los fake se diferenciarían de los ‘truly humans’, parace sumarse al bando de quienes intuyen que se trataría de una algún tipo de humanidad menos consciente.

Las máquinas no piensan: calculan. Observamos que se promueven unas tecnologías de la información que mecanizan la conciencia, al apelar a los automatismos del subconsciente (el Sistema 1 de Kahneman), desviando la atención de la reflexión y el pensamiento consciente. Incluso Arianna Huffington, que ganó su fama y fortuna en Internet, avisa que:

«La tecnología es estupenda para proporcionarnos lo que creemos que queremos, pero no necesariamente lo que necesitamos. En la economía de la atención, nuestra atención es monetizable y la sofisticación de las técnicas utilizadas para socavarla están sobrepasando a ritmo exponencial nuestra capacidad para protegerla.»

Promueven también una versión de la tecnología cognitiva y la inteligencia artificial que tienden a mecanizar nuestros procesos de pensamiento. A este respecto, Tim Cook, el CEO de Apple, expresa  que:

«No me preocupan que las máquinas puedan pensar como las personas. Me preocupan las personas que piensen como máquinas.»

Antes de plantear qué hacer al respecto para protegernos de esos riesgos o, aún mejor, para combatir sus causas, conviene quizá considerar que la tendencia de fondo es incluso anterior a la invención de Internet. ¿Cómo se explica si no, la reflexión de Erich Fromm en «La revolución de la esperanza« (1968):

«Un nuevo espectro anda al acecho entre nosotro: una sociedad completamente mecanizada, dedicada a la máxima producción y al máximo consumo materiales y dirigida por máquinas computadoras. En el consiguiente proceso social, el hombre mismo, bien alimentado y divertido, aunque pasivo, apagado y poco sentimental, está siendo transformado en una parte de la maquinaria total. Con la victoria de la nueva sociedad, el individualismo y la privacidad desaparecerán, los sentimientos hacia los demás serán dirigidos por condicionamiento psicológico y otros expedientes de igual índole, o por drogas, que también proporcionarán una nueva clase de experiencia introspectiva«.

Algo así como en esta escena de Wall-E. Continuará.

#Tech4Who’sGood

En una entrada anterior proponía evitar caer en la trampa de la elección binaria entre #Tech4Good y #Tech4Bad, de modo que la reflexión y el debate partiera de una cuestión abierta, como #Tech4What.

«El ritmo de innovación tecnológica es impresionante. Está teniendo impacto en prácticamente todos los aspectos de nuestras vidas. Y lo continuará haciendo – de muchos modos que no podemos todavía imaginar.»

Esta cita, extraída de un artículo de una profesora de la London Business School sobre los robots y el futuro del trabajo me motiva a añadir a la anterior otra pregunta abierta: #Tech4Who’sGood.

El impulso a la tecnología, en este caso a la robotización guiada por inteligencia artificial, no tiene lugar espontáneamente. Nada lo hace. Para explicar la dinámica de los cuerpos materiales, Newton propuso su famosa ecuación «F = m*a«; si un cuerpo se acelera es porque actúa sobre él alguna fuerza. De hecho, las escuelas de negocios de élite enseñan precisamente éso a quienes pueden pagar la matrícula: a participar de las fuerzas que conforman el futuro («El futuro pertenece a los líderes, te pertenece«, leo en un banner de la London Business School).

Como era de esperar, la profesora de la LBS tiene presente una de las causas de este fenómeno:

«Quizá este futuro es indescifrable a largo plazo – más de 1o años – pero hay señales que nos pueden ayudar a pensar acerca del corto y medio plazo […] Una señal a observar es a dónde va el dinero de los inversores.»

Omite, sin embargo que, como Carlota Pérez y otros autores han mostrado, la inversión en épocas como la actual está impulsada por capital especulativo, entre cuyas prioridades está la apropiación de los beneficios de la innovación, pero no la responsabilidad de los daños colaterales que ésta pueda producir. En el pasado, el deterioro ecológico. En el futuro inmediato, tal vez un deterioro social consecuencia de la destrucción de empleos y el aumento de las desigualdades.

La trampa de argumentos de este estilo es presentar como una reflexión imparcial lo que en puridad es el resultado de una ideología (y axiología) que se desvela al llegar a las recomendaciones:

«Como individuos, como organizaciones y como sociedad tenemos que aceptar que las continuas innovaciones en tecnología tendrán grandes consecuencias en nuestras vidas […] Debemos aceptarlo. Tendremos que adaptarnos […] Hace falta solamente que seamos lo suficientemente ágiles – anticipándonos, adaptarándonos, aprendiendo – para captar el potencial de la tecnología.»

La necesidad de rebatir esa lógica me parece evidente. La propia autora da pie para ello al concluir al final de su panfleto que:

«No somos observadores pasivos […] Nos corresponde a todos explotar la tecnología en lugar de dejar que sea la tecnología la que determine la narrativa.»

Pero quien ‘determina la narrativa‘ no es la tecnología, sino las actuaciones de quienes, como la autora, defienden desde una posición de privilegio la lógica de quienes la conciben, financian, desarrollan e imponen.

Es cierto: faltan narrativas alternativas. ¿Las tendremos? Como la propia Carlota Pérez desgrana en esta entrevista, no podemos darlo por seguro. Como individuos aislados, buscando ‘soluciones individuales a las contradicciones del sistema(Bauman dixit) somos socialmente impotentes.  Necesitamos construir grupos, organizaciones e instituciones sociales capaces de generar alternativas prácticas a las que está imponiendo la lógica de los exponencialistas. Y sobre éso, sobre construir este tipo de organizaciones e instituciones, estamos todavía aprendiendo. Tema para próximas entradas.

Una mirada sobre la creación

Es frecuente encontrar en la red imágenes reminiscentes del fresco de Miguel Angel sobre «La creación de Adán» en la Capilla Sixtina, pero referidas a la interacción entre humanos y robots, no entre la Divinidad y la Humanidad.

Preparando una charla en la que utilizaba una estas imágenes me encontré reflexionando sobre las diferentes lecturas que permite la confrontación con una composición de este tipo.

Uso aquí el término confrontación a conciencia, porque pienso que una imagen así debería interpelarnos, hacernos reflexionar.

En primer lugar, porque invoca de modo inevitable a nuestro subconsciente, que a buen seguro guarda el recuerdo y la interpretación del original de Miguel Angel. Se trata de un acto de creación en que la Divinidad da vida a Adán, el primer ser humano según el Génesis.

La alusión a esa escena quiere a buen seguro sugerir que también hay un acto de creación en esa relación entre humanos y robots. Queda sin embargo abierta la interpretación de a quién corresponde en esta ocasión el papel del creador, el rol de la Divinidad. Al compararla con el original de la Capilla Sixtina, la imagen de la parte superior izquierda parece sugerir que es el robot, situado en la posición de la Divinidad, quien ejerce de creador, en tanto que el humano es el receptor de la creación. El mensaje subliminal sería en este caso que «la tecnología – a la que adoramos como si fuera la Divinidad – nos potenciará como humanos».

La otra imagen, en que las posiciones se invierten, podría sugerir lo contrario, atribuyendo al ser humano las capacidades de la Divinidad. De este modo la sugerencia sería «daremos vida (humana o casi humana) a las máquinas».

Las mismas imágenes pueden, sin embargo, hacernos pensar también en un futuro en que la proliferación de robots desplazan en algún sentido a los humanos. No sólo haciéndose cargo de trabajos, sino propiciando la atrofia de capacidades como la atención, la voluntad e incluso la conciencia, al caer en la tentación de ir cediéndolas a los androides.

Cada cual hará su interpretación. Porque, como reza el antiguo aforismo, «no vemos las cosas como son; vemos las cosas como somos«. El modo en que miramos no cambia la realidad, pero sí nuestra percepción de la realidad. No perdamos, por tanto, la conciencia de cómo miramos del modo en que miramos.

No perdamos tampoco la conciencia de que tenemos la capacidad de decidir cómo queremos mirar; desde qué perspectiva o punto de vista hacerlo. Porque escoger nuestra mirada puede ser también un acto de creación. Cuentan que el propio Miguel Ángel, cuestionado sobre el proceso de creación de La Piedad, respondió algo así como “La escultura ya estaba dentro de la piedra. Yo, únicamente, he debido eliminar el mármol que le sobraba”. Pues eso.

#Tech4What: La trampa de las preguntas binarias

Ship2B tuvo la bienintencionada pero arriesgada inciativa de incluir en el programa de 4YFN un taller sobre la cuestión «Tech4Good o Tech4Bad». Se nos pidió a los participantes, distribuidos en 7 u 8 grupos, que propusiéramos en unos 20 minutos tres iniciativas ‘potentes’ para catalizar intencionadamente un impacto social positivo de la tecnología.

Es un asunto importante, desde luego oportuno como para incluirse en la agenda de una organización como Ship2B centrada en el impacto social, pero que requiere (pienso) una reflexión y un proceso de exploración y debate mucho menos superficial que el posible en el tiempo y formato propuesto.

La temática del impacto de la tecnología en la sociedad, como el menos tratado del impacto de la sociedad en la tecnología, es un asunto demasiado complejo, multidimensional si se prefiere, para encapsularlo en una pregunta binaria.

El progreso tecnológico tendrá (ha tenido) efectos positivos, pero también negativos.

«No question, technological progress, just like trade, creates losers as well as winners. The Industrial Revolution involved hugely painful economic and social dislocations—though nearly everybody would now agree that the gains in human welfare were worth the cost» (The Economist, 27/09/2001)

Aceptemos que  en la mayoría de las ocasiones quienes impulsan el avance de la tecnología lo hacen con buenas intenciones (#tech4good); pero ello no excluye que generen efectos colaterales indeseados, además de una distribución por lo general nada democrática entre ganadores y perdedores. En particular, porque nadie se postula de entrada como perdedor.

Al mismo tiempo, la naturaleza humana, o el influjo de las fuerzas del mal, si se prefiere, tendrá como consecuencia inevitable que haya (los ha habido, los hay) quienes conciban, desarrollen, impulsen o utilicen la tecnología para fines socialmente censurables (#tech4bad).

«La revolución de los ordenadores es claramente silenciosa con respecto a sus propios fines. (Langdon Winner«, La ballena y el reactor).

Los que nos dedicamos ayudar a grupos u organizaciones en sus procesos de cambio sabemos de la dificultad frecuente en que se encuentran para responder con precisión y coherencia a una ‘pregunta poderosa’: «¿Para qué?«. Pienso que sería interesante someter a los convencidos del #Tech4Good a un cuestionamiento a fondo de sus convicciones.

«Hablan demasiado cuando convendría callar más. Todo son respuestas y casi no queda espacio para las preguntas que pueden no tener respuesta.» (Josep M. Esquirol, «La resistencia íntima«).

Porque los expertos han descrito el síndrome que denominan como ‘la ilusión del conocimiento’ (ver, por ejemplo, «The Knowledge Illusion«).  Cuando se interroga a fondo a gente sobre su conocimiento en detalle sobre temas en los que tienen una opinión bien formada, una buena parte acaba por admitir, siempre ‘a posteriori’, estar mucho menos seguros de su conocimiento en profundidad de la materia. Sería ilustrativo hacer este experimento sobre los efectos de la tecnología. ¿Alguien se apunta?

 

La trampa de la comodidad: el asalto a la voluntad

Viñeta: The New Yorker, 27/03/2017

El debate sobre los efectos colaterales de la proliferación acrítica de las redes sociales se ha puesto (por fin) de actualidad. Valga como muestra este  artículo a doble página en El País , («Rebelión contra las redes sociales«, 17/02/2018), tildándolas de «Manipuladoras de la atención. Vehículo de noticias basura. Oligopolios sin control.»

Hace tiempo que estábamos avisados (Langdon Winner, «La ballena y el reactor«) de que:

«La construcción de un sistema técnico que involucra a seres humanos como partes de su funcionamiento requiere una reconstrucción de los roles y las relaciones sociales.«

Lo que emerge ahora es la conciencia de que el despliegue de algunas tecnologías tiene también como consecuencia la reconstrucción (de-construcción, tal vez) de la esencia de lo humano. El modelo de negocio de las redes sociales se basa en captar la mayor cuota posible de la atención de sus usuarios. Con la consecuencia práctica de minar su capacidad de prestar atención a otras asuntos más merecedores de ella.

Pero vemos ahora cómo emerge un frente adicional de asalto a la conciencia. Como observa Tim Wu en The New York TimesThe Tyranny of Convenience«):

«La comodidad está emergiendo como quizá la fuerza más poderosa que conforma nuestras vidas individuales y nuestras economías.«

La proliferación de servicios basados en la comodidad apunta a un efecto sobre el ejercicio de la voluntad similar al de los contenidos sociales sobre la atención. El objetivo es en ambos casos soslayar el ejercicio de la conciencia. De la decisión consciente de en dónde concentrar la atención. De la práctica consciente de ejercitar la voluntad para superar obstáculos. Para, en ambos casos, explotar económicamente actuaciones en que el usuario actúa guiado por hábitos, pulsiones o instintos subconscientes. Porque precisamente esos, al ser automáticos, resultan también los más previsibles.

Sería imprudente considerar que se trata de un fenómeno casual. Los inversores / especuladores que promueven la innovación disruptiva han sabido sacar provecho de la ‘deconstrucción’ de roles y relaciones sociales en ámbitos como los medios de comunicación (Google, Facebook), el turismo (Airbnb) o el transporte (Uber) o la contratación de personal (Deliveroo y similares). Con este precedente, no parece descabellado especular que intenten lo mismo la explotación del subconsciente.

Lo que subyace es un déficit de ética y también de teoría social en los discursos y prácticas que emanan de Silicon Valley. Déficits que se encarnan en personas, empresas y organizaciones que tienen clara conciencia de sus propósitos y una férrea voluntad de alcanzarlos. En su propio (quizá exclusivo) beneficio. El mal existe, dicen por ahí, y es distinto de la ausencia de bien. Atentos.

Una caduca «Declaración de independencia»

Imagen: Electronic Frontier Foundation

Anuncian la muerte de John Perry Barlow, autor de una «Declaración de la Independencia del Ciberespacio«, publicada en 1996. Una declaración muy celebrada en su momento por los tecno-utópicos, y que todavía traen a colación de cuando en cuando los ilustrados-TIC y los propagandistas y voceros de la ideología tecnocrática de Silicon Valley y afines.

El tiempo, sin embargo, ha tratado mal el espíritu y la realidad de esa Declaración.

«We will create a civilization of the Mind in Cyberspace. May it be more humane and fair than the world your governments have made before.«

La realidad desmiente esa visión utópica del ciberespacio como una «civilización de la Mente». La realidad hoy es la de un ciberespacio complejo y caótico, en que la maraña de contenidos banales, cuanto no  ‘fake news, enmascaran la sabiduría y el conocimiento civilizados. Un ciberespacio colonizado además por grandes empresas quasi-monopolistas, ampliamente financiadas por el capitalismo más puro y duro. Un espacio que quizá llegue a servir para ampliar la democracia, pero que seguro que sirve ya para combatirla. Un espacio que tanto puede ampliar nuestras mentes como aletargarlas, ampliar nuestras conexiones como aislarnos, estimular la conversación como pervertirla.

Quizá la conclusión más equilibrada sea que la evolución del ciberespacio es paralela a la del espacio físico, dominados ambos por las mismas pulsiones, impulos e intereses, a la vez por ángeles y por espíritus del mal. Que la realidad virtual no es ni será ni más ni menos utópica que la que teníamos por convencional.

Concluiré postulando que el razonamiento utópico de John Perry Barlow se fundamenta erróneamente en una visión dualista del mundo, de  los conceptos de realidad, materia y espíritu:

«Your legal concepts of property, expression, identity, movement, and context do not apply to us. They are all based on matter, and there is no matter here.»

Doblemente incierto. Porque los cimientos del ciberespacio están hechos de materia, silicio, fibra óptica, servidores y redes. Y  los fundamentos de los conceptos legales a los que se refiere no son materiales: se aplican a una realidad material, pero emanan de pensamientos, teorías, ideologías, intenciones y voluntades.

Esta declaración de independencia, como tantos otros manifiestos bienintencionados, pecan de un optimismo no realista acerca de la capacidad de los utopistas para crear grupos e instituciones acordes con su visión de futuro. Subestiman a los incumbentes:

«You have no moral right to rule us nor do you possess any methods of enforcement we have true reason to fear.»

a la vez que sobrevaloran sus propias habilidades y capacidades:

«We will spread ourselves across the Planet so that no one can arrest our thoughts.»

Descanse en paz, John Perry Barlow. Aquí queda todavía mucho por hacer.

No tomarás el nombre de nada en vano.

Un nuevo colectivo («Treva i Pau»), en el contexto de la situación en Cataluña,  nos invita en La Vanguardia al compromiso de hacernos co-responsables de nuestro futuro. Destacan la necesidad de:

«Un nuevo relato dirigido a establecer actitudes sociales tendentes a hacer posible una acción poderosa de reforma y regeneración […] A esta tarea nos comprometemos y llamamos a todo el mundo a comprometerse.«

Este relato, si quiere ser nuevo, tendría que incorporar también nuevas imágenes y marcos mentales, un nuevo léxico. También posiblemente un nuevo estilo de escritura, una sintaxis diferente.

Quizá por coincidencia, Eduardo Madina propone («Lenguaje para después de una batalla«) renovar el vocabulario. Rechazando, por ejemplo, propuestas que apelen genéricamente al «pueblo» como si este concepto significara hoy algo. «Cada cosa en su sitio«, reclama también Remei Margarit, con la que coincido en:

«El convencimiento de que cuando se habla en nombre del pueblo es que no se tiene argumentos creíbles y sensatos.«

Añado a este zurcido de retales un titular reciente de La Contra:

«De un conflicto se sale poniendo palabras a las emociones.«

No somos responsables de nuestras emociones, pero sí de lo que hacemos con ellas. Lo primero, si queremos evitar que sean los demonios del inconsciente los que guíen nuestro actuar, es «tomar la suficiente distancia respecto a lo que sentimos como para distinguirlas de hechos y razones«. Poner las palabras justas a las emociones es articularlas, convertirlas en conocimiento. Es también cerrar esos demonios que tanto nos pueden cegar.

La cuestión, como tantas veces, es cómo hacerlo. No sólo de modo individual, sino también colectivamente. En su reciente y recomendable «Nueva Ilustración Radical«, Marina Garcés reedita la denuncia la tendencia extendida a la interpasividad:

«Una forma de actividad delegada que oculta la propia pasividad […] Es una relación sin relación que mueve información pero que no genera experiencia, comprensión ni desplazamiento alguno.»

Confiar en que la publicación de ideas y propuestas en los periódicos o en las redes sociales será suficiente para cambiar las cosas sería un ejemplo de interpasividad. También lo es, mucho me temo, limitarse a escribir este blog. Hacen falta nuevas prácticas y nuevos practicantes.

Ilustración: Perico Pastor en La Vanguardia

 

 

 

 

 

Conocimiento, emociones y creencias

Escribo bajo la influencia de la lectura  de «The Knowledge Illusion: The myth of individual thought and the power of collective wisdom«. (También, supongo, bajo la influencia de la campaña electoral en Cataluña).

Su punto de partida (que debiera escribirse en primera persona del plural):

«No es que la gente sea ignorante. Es que la gente es más ignorante de lo que cree.«

Y en particular, que:

«Los políticos y los votantes no son conscientes de lo poco que entienden.»

Para los autores, la causa de esta «ilusión del conocimiento» es que:

«Los sentimientos intensos no emergen a partir de un conocimiento profundo.«

Cuando actuamos, como a menudo sucede, a partir de emociones y creencias (incluyendo las que conforman nuestros valores), nos importa poco el razonamiento sobre los resultados de nuestras acciones (o los de las políticas a las que damos apoyo). En línea con el origen y la influencia de los ‘marcos mentales’ que Georges Lakoff puso de moda hace ya algunos años,

«El secreto que la gente que tiene práctica en el arte de la persuasión aprendió hace siglos es que cuando una actitud está basada en un valor que se considera sagrado, las consecuencias no importan.»

La conclusión, desde luego, no es prescindir de los valores:

«Los valores sagrados tienen su lugar, pero su lugar no debería el de impedir el razonamiento causa-efecto sobre las consecuencias de la política social.»

Hace poco, Alfredo Pastor firmaba un artículo en la misma línea:

«Lograr la armonía no ha sido la principal preocupación de nuestros políticos en estos últimos tiempos. Al contrario: han jugado con las emociones y las han excitado […] Los políticos pueden contribuir a la ­tarea de remendar la convivencia no sólo ­arbitrando la única salida inmediata po­sible en nuestro caso, que consiste en poner a votación de un buen acuerdo. También pueden incidir en el plano más profundo de emociones y creencias.«

Una dificultad, creo, es que nos gusta considerarnos como seres racionales, pero lo cierto es que también somos seres hedonistas. Lo cual trae a cuento mi cita final, que unos atribuyen a Oscar Wilde y otros a Voltaire:

«La ilusión es el primero de todos los placeres.«

He estado a punto de escribir que me haría ilusión que la política y nuestros políticos fueran de otra forma. Pero me he contenido.

Atención, divino tesoro

Fuente: The Economist

Soy lector de The Economist desde hace muchos años. Pienso que escriben tan bien que incluso cuando no se está de acuerdo con lo que publican, uno debe obligarse a la disciplina de rebatirles con un rigor y calidad como mínimo equivalente al que ellos emplean. No es tarea fácil, como cualquier lector atento puede comprobar por sí mismo.

Otro aspecto que me parece también remarcable de The Economist es el modo en que tratan las temáticas tecnológicas y su impacto social. Con una aproximación equilibrada e independiente; ni al dictado de la ideología tecnocrática de Silicon Valley ni de sus críticos sistemáticos.

Por eso mismo creo que son notables, y de lectura obligada, se esté o no de acuerdo, los dos artículos (uno y dos) que la revista dedica al impacto en la sociedad democrática de Fakebook y similares. Extraigo sólo dos afirmaciones que creo apuntan al núcleo de la cuestión:

«Los ‘social media’ son un mecanismo sin par para capturar, manipular y consumir atención.»

«Una economía basada en la atención es fácilmente manipulable.»

Nos conviene ser más conscientes de cómo utilizamos nuestra atención (y como otros aprovechan nuestras omisiones al respecto). Porque la atención es la más personal de nuestras herramientas. La única, quizá.

(Queda abierta la cuestión de qué hacer al respecto. Como en tantas otras materias, la regulación irá por detrás de los acontecimientos. En paralelo, aunque sólo sea por si acaso, empiezan a apuntar organizaciones que intentar cambiar las cosas desde la base. Temas para otra ocasión.)