Inocular el virus Bartleby a según qué ciencia

Dedico parte de mis lecturas veraniegas a una inmersión en las novelas antiguas de Enrique Vila-Matas, incluyendo «Bartebly y compañía«.

El protagonista de esta novela confiesa su empeño en rastrear el «amplio espectro del síndrome de Bartley en la literatura«, un síndrome cuya manifestación es

«la pulsión negativa o la atracción por la nada que hace que ciertos creadores, aún teniendo una conciencia literaria muy exigente (o quizá precisamente por eso), no lleguen a escribir nunca; o bien escriban uno o dos libros y luego renuncien a la escritura; o bien, tras poner en marcha sin problemas una obra en progreso, queden, un día, literalmente paralizados para siempre.»

Lo que me lleva a mencionar el síndrome Bartebly es una entrevista en El País Ideas (12/8/2018) con Max Tegmark, un físico teórico de MIT, a raíz de la publicación de su libro («Vida 3.0: Ser humano en la era de la inteligencia Artificial«). Si hubiera tenido en la memoria la novela de Vila-Matas cuando leí («Our Mathematical Universe«), una obra anterior de Tegmark, es posible que no hubiera podido resistirme al malévolo deseo de que fuera de algún modo, como escribiente, afectado por el síndrome Bartleby y se centrara en publicar sólo para la comunidad científica. Ahora sería aún más radical.

En la entrevista para El País, Tegmark manifiesta esta preocupación:

«nos arriesgamos a perder completamente el control del planeta a manos de un pequeño grupo de gente que desarrolle la Inteligencia Artificial».

El motivo, según su punto de vista, es que:

«Muchos de los líderes tecnológicos que están construyendo la IA son muy idealistas, y quieren que esto sea bueno para todos. Pero la principal motivación de las compañías que están desarrollando esta tecnología es ganar dinero .»

Su propuesta:

«Tenemos que ser proactivos. Es muy importante que no dejemos las discusiones sobre la inteligencia artificial sólo en manos de gente experta en tecnología como yo. Psicólogos, sociólogos o economistas deben participar en la conversación.«

Una dificultad obvia es la muy alta probabilidad de que quienes paguen a esos psicólogos, sociólogos o economistas sean las mismas empresas que financian la investigación de los científicos «idealistas», y que lo hagan con el mismo objetivo prioritario de ganar dinero.

Inspirado por Vila-Matas, se me ocurre que una alternativa, quizá igualmente improbable pero por qué no, sería inocular un virus Bartleby a los científicos que, desde un idealismo simplista, cuando no socialmente irresponsable, empujan el desarrollo de unas tecnologías cuyo control social ellos mismos reconocen como problemático. Sería bonito, quizá demasiado bonito, que el propio Tegmark fuera el primero en dar ejemplo.

Pre-juicios de la tecnociencia

Entrevistan en El Mundo a un neurobiólogo español de prestigio.

Afirma categóricamente que:

(1) La mente está en el cerebro. Todo lo que somos, la esencia del individuo, lo que pensamos, lo que nos define como personas, todo, está en el cerebro.

(2) El cerebro genera la mente. Si entendemos el cerebro, entendemos la mente. Si podemos leer la actividad del cerebro, podemos leer la mente.

(3) Imagínate que podemos leer la mente y podemos manipular la actividad del cerebro, entonces podemos manipular la mente.

Me resisto a darle la razón. En parte porque entiendo que su afirmación no es el resultado de una investigación, sino de un pre-juicio ‘a priori’. Porque intuyo como mucho más verdadera la perspectiva del filósofo Markus Gabriel, que comentaba en una entrada anterior:

  • “La mente humana no es un fenómeno puramente biológico.”
  • “Somos seres espirituales que no pueden ser plenamente entendidos si se intenta basar nuestra imagen humana en el modelo de las ciencias naturales.”

De otra parte, ¿qué pensaríamos de una afirmación como la siguiente?


«Imaginemos que nos dan un ordenador que ejecuta un software complejo y especializado. Por ejemplo, uno de esos nuevos programas de inteligencia artificial. La totalidad del programa y de los datos que maneja residen en el hardware del ordenador. El hardware es pues la esencia. Si podemos leer todos los bits almacenados y monitorizar todo el tráfico electrónico cuando el ordenador está funcionando, entenderemos todo lo que hay que entender.

No sólo eso, modificando los bits y quizá algún circuito podemos corregir posibles errores e incluso construir versiones mejoradas de ese ordenador.»


Creo evidente que cualquiera con un mínimo entendimiento sobre ordenadores y computación desaconsejaría por poco práctica una propuesta de este tipo. Porque:

  • Es prácticamente imposible, o como mínimo extremadamente laborioso,  hacer la ingeniería inversa de un programa en binario de una cierta para obtener el código fuente original.
  • Incluso si se tiene acceso al código fuente, muchos programas son realmente difíciles de entender, incluso por su autor cuando ha pasado un tiempo, a menos que haya una buena documentación de diseño y suficientes comentarios, lo que en la práctica pocas veces ocurre.
  • No es posible por el momento entender el razonamiento en base al cual toman decisiones los programas modernos basados en ‘deep learning‘ o similares; incluso los expertos los ven como una caja negra. En parte, regún entiendo, porque estos programas no razonan, sino que calculan a partir de matrices numéricas de gran tamaño.

Ya puestos en plan escéptico, añadiría que:

  • Hay evidencias de que algunos de los programas utilizados para analizar el funcionamiento del cerebro han resultado no ser fiables.
  • Parece ser que intentos de aplicar esos programas para entender la estructura y el funcionamiento de un ordenador sencillo han tenido, por así decirlo, resultados por debajo de lo esperado.

Mis conclusiones:

(1) El cerebro es un instrumento del pensar. Pero para entender el pensar habrá que mirar más allá del cerebro. Igual que para entender el tiempo hay mejores maneras que investigar cómo funciona uno de esos relojes con muchas complicaciones en los que los relojeros suizos son tan expertos.

(2) El problema con algunos científicos no es que sean ignorantes; es que, como ocurre a tantas personas, son más ignorantes de lo que se creen.

(3) Sobre las posibles reacciones a una entrada como ésta, recordar la advertencia de Bertrand Rusell: «Las opiniones más apasionadas son siempre aquellas para las que no existe fundamento«.

Dicho ésto, me encantará participar en un debate sobre los límites de la ciencia y este tipo de cuestiones.

Efectos secundarios del impulso de estar informado


«El rasgo distintivo de una persona que tiene el control de su conciencia es su capacidad de enfocar la atención a voluntad, de ser ajeno a las distracciones, de concentrarse durante el tiempo que sea necesario para alcanzar un objetivo, y no más. La persona que puede hacer esto generalmente disfruta el día a día de su vida.» (M. Csikszentmihaly, «Flow»).

No añadiría ni una palabra más a estas imágenes. Excepto, quizá, mencionar la envidia que me dan estos dibujantes de The New Yorker.

Fuentes:

Cuando su ‘nosotros’ es nuestro ‘ellos’, por ahora

Foto: Miguel Orós


«En el terreno técnico repetidamente nos involucramos en diversos contratos sociales, las condiciones de los cuales se revelan sólo después de haberlos firmado.» (Langdon Winner)


La reflexión de Berners-Lee sobre Internet comentada en una entrada anterior nos alerta de que el impacto social de la tecnología no es siempre ni el deseado ni el previsto. Ha sido así en el pasado, y no hay motivos para creer que dejará de ser así en adelante, en particular con las tecnologías que se engloban bajo el lema de la Revolución Industrial 4.0: la inteligencia artificial, el Big Data, la Internet de las cosas, la robótica, la realidad aumentada y algunas que seguramente olvido.


«Se busca en vano entre los promotores y agitadores del campo de los ordenadores las cualidades de conocimiento social y político que caracterizaban a los revolucionarios del pasado. (Langdon Winner)


Parece pues obligado leer con precaución, cuando no con desconfianza, los argumentos del ‘status quo’, como el World Economic Forum a favor de esa nueva revolución tecnológica. Usaré como ejemplo una publicación reciente: «Robots have been taking our jobs for 50 years, so why are we worried?«. Su argumento central es ya  toda una declaración de principios:

«A medida que la Industria 4.0 sea más inteligente y más ampliamente disponible, los productores de todos los tamaños tendrán la capacidad de desplegar como estándar coste-efectivo máquijas colaborativas y multipropósito. Ello resultará en crecimiento industrial y competitividad del mercado.»

El impulso al desarrollo de esa tecnología 4.0 se da por hecho, aún admitiendo la incertidumbre sobre «el impacto exacto que una fuerza de trabajo robótica con el potencial de operar de forma autónoma tendrá en la industria productiva». Se cita como precedente que cuando la introducción de una tecnología ha convertido a los humanos en redundantes «les ha forzado a adaptarse», lo cual es también una declaración de valore. Unos deciden desarrollar e implantar una tecnología; otros se ven forzados a adaptarse. Aunque esta adaptación forzosa suponga, por ejemplo, el desacople entre los aumentos de productividad y los salarios que viene constatándose desde hace ya algunas décadas. Lo que se sí se argumenta es que en un escenario ideal, la Industria 4.0 «permitiría a las personas enfocarse más en aquello que nos hace humanos«. Posible, pero improbable. Porque, como observa un académico en ciernes, «entendemos mucho mejor cómo trabajan los robots que cómo lo hacemos nosotros». Pero, sobre todo, porque se omite todo detalle sobre las características de este escenario ideal, sobre cómo construirlo, así como el modo de combatir la aparición de otros escenarios menos ideales impulsados desde el lado oscuro.

El artículo cierra con una frase deliberadamente ambigua:

«En último término, nos corresponde a nosotros definir si la fuerza de trabajo robótica trabajará para nosotros, con nosotros o contra nosotros.«

Ambigua, porque la naturaleza de este nosotros no queda en absoluto clara. Alguien observó certeramente que «cuando se habla en nombre del pueblo es que no se tiene argumentos creíbles y sensatos«. Pues eso. Me temo que, por lo menos de momento, su ‘nosotros’ es nuestro ‘ellos’.

WWW: La tragedia de las buenas intenciones

Imagen: Berners-Lee en el CERN en 1994. © 1994–2018 Cern.

En una entrevista en Vanity Fair, Tim Berners-Lee, el inventor de la Web, afirma que:

«Hemos demostrado que la Web ha fallado a la Humanidad en lugar de servirla, como se suponía que debía haber hecho.»

Habla de la creciente centralización de la Web, del escándalo de Facebook y Cambridge Analytica, de la influencia en la elección de Donald Trump, del asalto a la privacidad individual por parte de empresas y Gobiernos, del crecimiento de las desigualdades. La lista de efectos secundarios negativos es larga y relevante.

Lo que acongoja a Berners-Lee es que esos daños colaterales se han producido no sólo sin una acción deliberada de las personas que diseñaron la plataforma, sino incluso en contra de sus buenas intenciones.

“El espíritu inicial era el de algo muy descentralizado. Empoderar al individuo de una forma increíble. Todo se basaba en la ausencia de una autotidad central a la que tuvieras que pedir permiso. Este sentimiento de control individual, de empoderamiento, es algo que hemos perdido.»

La clave, ahora evidente, es que Berners-Lee regaló su innovación al mundo sin condiciones. Esperando que fuera una plataforma para lo mejor pero sin incluir protecciones contra lo peor. Hay algo que aprender de esa tragedia personal, de la que Berners-Lee afirma sentirse en parte responsable.

Pero lo es sólo en parte, porque el estado actual de la Web no sería tal sin la negligencia o falta de visión de millones de usuarios, consumidores y ciudadanos perezosos, que durante décadas hemos firmado, sin siquiera leerlo, el consentimiento hacia el modo en que los Googles y Facebooks usan nuestros datos y acumulan dinero y poder.

También hay que apuntar a la falta de escrúpulos sociales de la industria de capital riesgo que se apuntó enseguida a explotar a su favor la ideología del winner-takes-it-all, hoy dominante en el mundo de la tecnología.

Y no pasar por alto la falta de visión (o directamente negligencia) de los poderes públicos que no intervinieron a tiempo para establecer unas reglas de juego alternativas al despliegue de la Web y sus aplicaciones, apoyando sin espíritu crítico las estrategias de aquellos cuyo dominio hoy cuestionan.

Valdría la pena, pienso, tomar conciencia de esta historia ante el despliegue de la propaganda sobre las bondades de la nueva ola tecnológica 4.0. La mayoría de la gente cree que Internet es buena para ellos como individuos, pero no tanto para la sociedad. Se equivocan. Del mismo modo que lo hacen quienes caen en la falacia de la superioridad ilusoria (la que tiene lugar cuando la mayoría de individuos de un colectivo cree ser superior a la media de ese mismo colectivo).

Más sobre todas estas cosas en próximas entradas.

 

 

 

 

Internautas: ¿egoístas o inconscientes?

Los resultados de una encuesta del Pew Research Center entre internautas habituales en EEUU dan que pensar sobre la relación entre progreso tecnológico y progreso social. Como se refleja en la gráfica,

  • Una proporción significativa (y creciente) de los que consideran que Internet es bueno para ellos no cree que sea bueno para la sociedad. Esta proporción es aún mayor en los segmentos de mayor edad.
  • En sentido contrario, lo que consideran que Internet no es bueno para ellos, o que se da una mezcla de bueno y malo, piensan que lo mismo sucede en mayor proporción para la sociedad.

Una interpretación plausible pasaría por considerar que los datos son el reflejo de una sociedad individualista.

Pero es a la vez posible que apunten a un conocido sesgo cognitivo: la mayoría de los estudiantes en las escuelas de élite creen que son mejores que la media de sus compañeros; la mayoría de las personas creen que son menos sectarias que la media. Quizá, piensen algunos, el usuario medio no sepa protegerse de los riesgos, pero yo controlo. Etcétera.

Los resultados de otra encuesta de la misma fuente, esta vez sobre la percepción del impacto de los ‘social media‘, entre los más jóvenes (89% de los cuales se conectan como mínimo varias veces al día) proporcionan un motivo adicional de reflexión : Sólo el 31% de los jóvenes encuestados considera que el efecto de los ‘social media‘ sea positivo, mientras que el 24% considera que son mayormente nocivos y el resto no se manifiesta claramente en uno u otro sentido.

Recuerdo una vez más un cita de Langdon Winner:

«En el terreno técnico nos involucramos repetidamente en diversos contratos sociales, las condiciones de los cuales se revelan sólo después de haberlos firmado.«

Con un único matiz:

  • Ningún (o casi ningún) usuario de los social media ni de servicios de Internet se lee el contrato que le da acceso al servicio. ¿Qué diríamos de quien hace lo mismo al comprometerse con una ‘empresa convencional’?
  • ¿Quién ha firmado el contrato de nuestra sociedad con los Facebook, Google, etc.?

 

Paywalls: Un estímulo para no dilapidar la atención

Supongo que no soy el único que debe haber notado últimamente la tendencia de muchas publicaciones electrónicas de poner fin el acceso ilimitado (iba a decir libre, pero la libertad es otra cosa) a sus contenidos. Los ejemplos, por nombrar sólo algunas de aquéllas que tienen la gentileza de enviarme regularmente un correo electrónico con los titulares de sus contenidos, incluyen el New York Times, el Washington Post, Wired, Business Week o Medium (además de otras a las que estoy suscrito hace tiempo, como The Economist o The New Yorker).

Debo confesar que en un principio esta tendencia me irritó, por cuanto no me parecería sensato afrontar el gasto de tantas suscripciones, aparte de que el conjunto de sus contenidos tendría una dosis alta de redundancia. Un artículo en Techcrunch sobre este asunto me ha hecho, sin embargo, cambiar de postura. Por dos motivos.

El primero es personal. Veo ahora esta limitación en el número de fuentes electrónicas a las que pueda acceder como un estímulo a decidir conscientemente hacia dónde enfocar mi atención. Creo que muchos fuimos ingenuos considerando como deseable un futuro en que toda la información del mundo fuera fácilmente accesible para todo el mundo. Porque ese futuro utópico conlleva también «La paradoja de la elección«, sobre la que otros han escrito mejor de lo que yo podría hacerlo aquí.

El segundo motivo para mi cambio de postura es la expectativa de que quizá una reacción en contra a esta proliferación de paywalls, en la línea del artículo de Techcrunch acabe resultando, como allí se propone, en un reconsiderar los principios y prácticas actuales del negocio de contenidos en Internet. Que tienen entre sus consecuencias las ‘fake news’ y el acoso abusivo de los publicistas.

Resumiendo. Retomando la conciencia de que «There’s no such thing as a free lunch», estoy escogiendo pagar con dinero mejor que con el alma.

 

Zuckerberg: ¿Un dictador benevolente?

Mark Zuckerberg ha cumplido una de sus promesas. aunque quizá no del modo en que lo imaginaba.

Hace unos años. en una carta dirigida a los potenciales accionistas en ocasión de la salida a Bolsa de Facebook, su CEO manifestaba que

«Tenemos un lema: Move fast and break things.«

Con el incidente de Cambridge Analytica y su posterior gestión, Facebook ha quebrado, en efecto, la confianza de inversores y usuarios bien intencionados, a una escala que The Economist califica como un fallo épico (epic fail‘) en una implacable imagen de portada.

Sería demasiado fácil añadir más madera a la ya abundante leña publicada sobre el árbol caído. Aparte de recomendar la lectura, con la perspectiva de hoy, de la comunicación de 2012 a sus futuros accionistas, me interesa comentar un aspecto de las manifestaciones que Zuckerberg hace acerca de su visión del futuro en una entrevista en Vox.

Empieza confirmando su afirmación anterior de que Facebook se parece más a un gobierno que a una empresa tradicional, ofreciéndose como árbitro y regulador de enfrentamientos que tienen lugar en su red:

«La gente comparte muchos contenidos y en ocasiones hay disputas acerca de si un contenido es aceptable […] Estamos en la posición, más que otras compañías, de arbitrar en estas disputas entre diferentes miembros de nuestra comunidad. Y para ello hemos tenido que construir un conjunto completo de políticas y de gobernanzas.»

A continuación, aún admitiendo que «no es evidente que una oficina en California sea la mejor ubicación para determinar políticas para gentes de todo el mundo» se reafirma en su objetivo de intentarlo, adoptando el rol de un dictador benevolente.

«Mi objetivo es crear una estructura de gobernanza en torno a los contenidos y la comunidad que refleje mejor lo que la gente quiere que lo que puedan querer los accionistas orientados al corto plazo.»

Aún admitiendo que Zuckerberg sea sincero, ¿se trata de un objetivo realista? ¿Es concebible que pueda crearse de arriba hacia abajo una tal estructura de gobernanza para una colectivo tan amplio? Más aún cuando, aunque Zuckerberg insista en lo contrario, el colectivo de usuarios de Facebook no constituye una comunidad – según Facebook sólo un 5% de sus usuarios forman parte de grupos con sentido. Para la mayoría, su común unidad se limita a utilizar Facebook.

La misma reserva, dicho sea de paso, puede aplicarse a muchas de las propuestas de regular Facebook desde los poderes públicos, aunque sólo sea porque muchas Administraciones tienen también tendencias de dictador benevolente.

Una alternativa sería, en la línea de las propuestas de la Premio Nobel de Economía Elinor Olson, dar a los usuarios la capacidad de crear sus propias reglas. La dificultad, claro está, es que ello exigiría al dictador benevolente y a sus accionistas dos compromisos radicales.

  1. Considerar como bien común los contenidos que aportan los usuarios.
  2. Adoptar los principios de diseño bottom-up de comunidades, en la línea de los propuestos por Elinor Ostrom (accesibles aquí), que configuran un tipo de organización en varios niveles, cada uno de ellos autogestionado.

Una propuesta que a buen seguro encontrará muchas resistencias, porque conllevaría la obligación de gestionar independientemente la red social y el negocio publicitario de Facebook, y por extensión el de empresas con un modelo de negocio similar.

¿Qué esperar pues? Pienso, y me gustaría equivocarme, que poco progreso a corto plazo. Porque los dictadores benevolentes también tienen su tribu.

 

No es la inteligencia artificial lo que da miedo

El suplemento Ideas de El País de 18/3/2018, dedicado en buena parte a la inteligencia artificial, es un ejemplo de la promoción acrítica de una versión sesgada del progreso tecnológico y su impacto social (ya desde el imperativo «debemos» del titular principal).

(En el interior (de la edición papel), otro titular Lo que los coches pueden enseñarnos sobre los robots«) utiliza un léxico asimismo discutible, dado que es obvio que los coches no van a enseñarnos nada).

«Los tribunales y la sociedad en general tardaron un tiempo en entender tanto los aspectos técnicos del coche, como los problemas que planteaba el tráfico.»

Sí podemos aprender algo de la historia social de la introducción del automóvil, y en particular de su regulación. Como bien señala la articulista, las normas y restricciones sobre el uso del automóvil no se centraron inicialmente tanto en los aspectos técnicos de los vehículos como en los cambios en ordenación del espacio público tras la aparición de ese nuevo artefacto. Algo que en su momento incluyó innovaciones como carriles, señales de tráfico, zonas de aparcamiento en la calle, semáforos y pasos de peatones.

Ahora bien, cuando observamos el impacto global del automóvil en la ciudad, en aspectos como la proporción de espacio público que ocupa o su incidencia en la contaminación, ¿podemos estar igualmente satisfechos de cómo se ha regulado socialmente la proliferación del automóvil privado? ¿Qué hubiera pasado si, por ejemplo, se hubiera dado preferencia desde un primer momento al desarrollo del transporte público? Imagino que quien lo intentara encontraría una enorme presión en contra de los emprendedores de la industria del automóvil y de sus inversores, así como la reivindicación de los derechos individuales de los (inicialmente privilegiados) primeros usuarios del automóvil.

«Las tecnologías alternativas no son las que determinan cambios en las relaciones sociales; son más bien el reflejo de esos cambios.» (David Noble, «Forces of Production: A Social History of Industrial Automation»).

Pero sigamos a la articulista y aceptemos que la historia (y las consecuencias) de la introducción del automóvil pueden ayudarnos a pensar sobre la introducción (y las consecuencias) de la inteligencia artificial. Una primera conclusión sería entonces que, si a algo tenemos que temer, no es a la inteligencia artificial (tampoco tenemos miedo de los motores de explosión), sino a las motivaciones, la ética y la responsabilidad social las personas y grupos sociales que las diseñan, financian, despliegan y promueven.

No podemos a este respecto coincidir con la articulista cuando propone que:

«Son los ingenieros, los científicos de datos, así como los departamentos de marketing y los Gobiernos que usen o tengan que regular dichas tecnologías, quienes deben comprender la dimensión social y ética de la inteligencia artificial.«

No podemos hacerlo, porque precisamente historias como la del automóvil (o más recientemente la de la Web 2.0 y las redes sociales, por poner sólo un ejemplo) no conducen precisamente a confiar en exclusiva a esos colectivos la comprensión de las dimensiones éticas y sociales de las tecnologías. (Ver el artículo sobre robots sexuales en el mismo suplemento).

«Me parece asombroso que los tecnoevangelistas hagan alarde de que puede ofrecer una suerte de eterno progreso a la humanidad; sin embargo, tan pronto se les confronta con cuestiones éticas caen en el determinismo y el fatalismo.» (Rob Riemen, «Para combatir esta era«)

Otro artículo en el mismo suplemento, también sobre la inteligencia artificial, concluye que:

«Es necesario aumentar la conciencia sobre los límites de la IA, así como actuar de forma colectiva para garantizar que se utilice en beneficio del bien común con seguridad, fiabilidad y responsabilidad.»

Una conclusión bien intencionada, razonada y razonable. Si no fuera porque los recursos destinados a esa actuación colectiva para garantizar el bien común son mucho menores que los que utilizan quienes no consideran el bien común como su prioridad ni su responsabilidad.