¿Conectar mi cerebro a Internet? No, gracias.

En un artículo en The Economist se preguntan si «tenemos los humanos que asumir que necesitaremos implantes en el cerebro para seguir siendo relevantes».

La pregunta surge al hilo de la noticia de que Elon Musk, el CEO de Tesla e impulsor de otras empresas de tecnología avanzada, ha anunciado la formación de Neuralink,  una nueva empresa que tendría como primer objetivo producir dispositivos invasivos para diagnosticar o tratar enfermedades neurológicas.

Parece, sin embargo, que la intención de la empresa, o cuanto menos de su promotor, apunta más lejos. Musk ha manifestado en una entrevista que los humanos corren el riesgo de acabar siendo tratados como mascotas por artefactos dotados de inteligencia artificial. Propone como una posible solución añadir artificialmente al cerebro una capa digital que, conectada a Internet, multiplicaría la memoria y la capacidad de computación del cerebro, y por tanto nuestra inteligencia.

Una perspectiva que la comunicadora de la Singularity University glosa de este modo:

«Podríamos multiplicar por mil nuestra inteligencia e imaginación. Sería una disrupción radical en cómo pensamos, sentimos y comunicarmos. Al transferir nuestros pensamientos y sentimientos directamente a otros cerebros podríamos redefinir la socialización y la intimidad de los humanos. En último término, subiendo nuestro Yo completo a las máquinas nos permitiría transcender nuestra piel biológica y convertirnos en digitalmente inmortales.»

Dos objeciones. La primera es filosófica. Afirmaciones de este tipo dejan traslucir una concepción materialista, o informacionalista si se prefiere, del ser humano. Pero no está nada claro que esta concepción tenga ninguna base científica. Me parece más convincente la argumentación de nuestra naturaleza espiritual que presenta Markus Gabriel en («Yo no soy mi cerebro«)

La segunda objeción es estratégica. ¿Es inevitable que hayamos de competir con artefactos dotados de inteligencia artificial? ¿Cuál es el sentido de decidir crear esos artefactos para que compitan con nosotros? ¿No merecería ese asunto algún tipo de dictamen democrático?

Además, incluso si era competencia fuera inevitable, las normas elementales de la estrategia dictan que nunca hay que escoger el terreno más favorable para el adversario. Si los artefactos nos superan en inteligencia digital, por llamarla de algún modo, tendrá sentido retarles en ámbitos donde otro tipo de inteligencia sea la determinante. Volvernos más digitales sería sólo un modo de ser hacernos más similares a ellos, y por tanto más vulnerables.

Conmigo, desde luego, que no cuenten.

Imagen: Singularity University

La filosofía es necesaria para entender la ciencia

«Los modelos matemáticos – nos cuentan en el video adjunto – nos proporcionan imágenes bonitas y fáciles de digerir acerca de cómo funciona el Universo […] Pero debemos tener cuidado sobre el valor que damos a estos modelos en nuestro pensamiento […] El modo en que describimos el mundo influencia cómo creemos que es el mundo. Incluso cuando hay otros modos igualmente correctos de describir el mundo que emplean imágenes totalmente distintas de las nuestras.

[youtube https://www.youtube.com/watch?v=lHaX9asEXIo&w=800&h=450]

¿Por qué llamar la atención sobre ello? Porque, citando a Marcelo Gleiser, el análisis de los límites de la ciencia es muy necesario cuando la arrogancia en la especulación científica es manifiesta. De que haya leyes de la naturaleza no se deduce directamente, que todo lo que sucede obedezca a leyes naturales. La suposición de que sólo es genuino el conocimiento científicamente asegurado y formulado en un lenguaje supuestamente experto es sólo eso, una suposición que no puede probarse científicamente.

Reflexiones de este tipo parecen especialmente necesarias en el terreno de la neurociencia. Observamos que es cada vez más frecuente que se describa el cerebro como una máquina, o al ser humano como un complejo procesador de información. Quizá sólo porque falta imaginación para pensar de otro modo. Quizá porque, como apuntaba Jaron Lanier, interesa a algunos degradar a las personas para que los ordenadores parezcan más potentes.

Me anima leer a alguien como Seth Godin escribir así sobre (los límites) de la ciencia:

«La ciencia es un proceso. No se trata de pretender que tiene la respuesta correcta; solamente que es el mejor proceso para acercarse a la respuesta correcta.»

Creo que más de un científico, y sobre todo más de un pseudo-divulgador de la ciencia o divulgador de la pseudo-ciencia podrían aprender de él algo más que marketing.

Continuará.

La fe en la ciencia es también un acto de fe

Es cada día más frecuente encontrar quien describe como VUCA (Volátil, Incierto, Complejo, Ambigüo) el mundo en que vivimos.

Es posible que no quede otro remedio que acostumbrarnos a vivir de forma permanente en este estado de volatilidad, incertidumbre y ambigüedad (doy por sentado que la complejidad ha llegado para quedarse).

Pienso, sin embargo, que una gran mayoría de las personas prefieren (como mínimo en alguna medida) la estabilidad, la certidumbre y la claridad. Pero cada vez está menos claro cómo conseguirlas, de qué recurso o recursos echar mano.

Quizá el más tradicional sea la religión y la fe en la religión. Pero está cada vez menos de moda. Para otros, la ciencia, la tecnología y el progreso basado en el desarrollo científico y tecnológico será la solución de todas las incertidumbres. Dos puntos de vista que a menudo se contraponen.

Un artículo reciente sobre la posverdad proporciona un ejemplo ilustrativo.  Al hilo de la confrontación entre datos y posverdad, el articulista se pregunta:

«¿Nos podrán salvar los números de la posverdad?»

Y se responde:

«Desde luego, pero que lo hagan dependerá de que logremos ilustrar a la gente. De que convenzamos al mundo de que debe entender la matemática y la ciencia. De que enseñemos a los maestros a enseñar a los alumnos a pensar de forma racional, inteligente y creativa. De que construyamos una sociedad abierta que adopte la razón como guía.»

El peligro que denuncia es que «muchas veces las certezas tienen más que ver con la fe que con la realidad», y que «la fe es irracional».

Afirmaciones a las que se pueden oponer dos réplicas:

  • Si la fe, en lo que sea, existe, es que forma parte de la realidad. La existencia de la fe es una certeza.
  • La fe en la ciencia y en la tecnología no deja de ser también un acto de fe.

La segunda me parece más fundamental y evidente, por más que los más apegados al materialismo científico se empeñen (de modo quizá no consciente) en ignorarlo. Traduzco de un artículo en una publicación para nada anti-científica como Wired:

«Esta es la naturaliza de la ciencia. Nunca ‘prueba’ nada de forma definitiva. Todo lo que la ciencia puede hacer es ofrecer la mejor respuesta usando un modelo basado en los datos disponibles […] La ciencia no puede probar que el modelo sea cierto, pero puede probar que no lo es […] Por ello nunca me ha gustado el término ‘hecho científico’ o la frase ‘La ciencia prueba que …’. Entiendo lo que la gente quiere decir con ello, pero no es como la ciencia funciona.»

¿Cómo funciona pues la ciencia? Copio de un libro de una física mediática (negrillas añadidas).

«Los científicos tratar de imaginar objetivamente cómo suceden las cosas y qué marco físico podría explicar lo que observan. Quienes trabajan en la ciencia tratan de evitar que las limitaciones o los prejuicios humanos nublen la imagen de modo que puedan confiar en sí mismos para obtener una comprensión no sesgada de la realidad.»

Creo que, además de lo improbable de la imaginación objetiva, es evidente que este párrafo contiene, aparte de un acto de fe en la ciencia, uno añadido acerca de la capacidad de los científicos de evitar limitaciones y prejuicios humanos, empezando por los suyos propios. De hecho, según otro artículo en Wired,

«Investigadores la Universidad de Yale han demostrado que las personas con un nivel alto de educación son las más inquebrantables en sus convicciones.»

Concluyendo. La insistencia de algunos científicos, basándose en su inquebrantable fe en la ciencia, en contraponer fe y ciencia me parece no sólo contradictoria, sino poco científica.

El futuro no está en los datos

Confieso un desasosiego creciente por el modo en que a menudo se abordan los temas tecnológicos y/o científicos en los medios de comunicación en general.

La portada que reproduzco, del suplemento Ideas de El País de 26/3/2017 me sirve de ejemplo.

En primer lugar, aunque en tono menor, me desorienta que se escoja esa fotografía como portada de una edición que tiene el ‘Big Data’ como asunto central. El pie de foto indica que se trata de seis científicos trabajando en un centro de control de satélites en 1957. Mucho antes, como es obvio, del nacimiento del ‘Big Data’. Se observa de otra parte que, como cabría esperar, los seis personajes trabajan no con datos, sino con ecuaciones de movimiento y fórmulas trigonométricas.

Anécdotas aparte, es el titular «El futuro está en los datos» el que realmente motiva esta entrada. Estrictamente hablando, los datos reflejan solamente el pasado. Es cierto que usando esos datos se pueden hacer hacer modelos explicativos de cosas que sucedieron, con la expectativa de que esos modelos sirvan de guía para predecir cosas que podrían suceder.

Pero, incluso si compramos al 100% esta expectativa, es en los modelos y no en los datos en donde (quizá) está el futuro.

Cuando emergía todo este asunto del Big Data se puso de moda afirmar que «Data is the new oil«. Que los datos serán para la economía digital lo que el petróleo para la industrial. Pero el petróleo, siendo un combustible fósil, fue y sigue siendo una herencia del pasado. El futuro nunca estuvo en el petróleo, sino en las perspectivas de su extracción, tratamiento y uso.

La analogía sirve también para recordar que el quasi-monopolio del acceso al petróleo fue en su momento el origen de grandes fortunas. La posibilidad de explotar un similar quasi-monopolio de acceso a los datos (nuestros datos) es un futuro que algunos persiguen. Pero esa es otra cuestión.

La simplicidad es un buen principio

Mi esposa y yo estamos volviendo a ver «El Ala Oeste de la Casa Blanca«. ¿Por qué? Porque es mucho mejor que la mayor parte de lo que se puede ver por la tele estos días. Además, hace tiempo que tenía ganas de hacerlo con un bloc de notas a mano y tomar apuntes. Quizá para un taller de liderazgo, algún día (Borgen sería otra posibilidad).

Segunda temporadade la serie. Episodio «17 People». Encuentro en YouTube este fragmento sobre una trama secundaria.

[youtube https://www.youtube.com/watch?v=NXPLirJRGDQ&w=800&h=450]

Sam y Ainsley Hayes (una abogada republicana que forma parte del equipo) discuten sobre la Equal Rights Amendment, una propuesta de enmienda a la Constitución de los EEUU, cuyo primer artículo  rezaba así:

«La igualdad de derechos ante la ley no puede ser negada ni restringida por los Estados Unidos o por ningún Estado por motivos de sexo.«

Para sorpresa de Sam, Ainsley se opone a la enmienda, por considerarla redundante:

AINSLEY
The 14th Amendment which says a citizen of the United States is anyone that's
born here... that's me... and that no citizen can be denied due process. I'm
covered. Make a law for somebody else.

Más adelante,

SAM
If the Amendment's redundant, what's your problem if it's passed or not?

AINSLEY
Because I'm a Republican! Have we met? I believe that every time the federal
government hands down a new law, it leaves for the rest of us a little less freedom. So
I say, let's just stick to the ones we absolutely need to have water come out of
the faucet and our cars not stolen. That is my problem with passing a redundant law.

Todo ello viene a cuento de una entrada anterior sobre la (¿excesiva?) complejidad de la regulación, en general. Y de constatar que existe en España una Ley Orgánica (3/2007) para la igualdad efectiva entre hombres y mujeres, cuyos 78 artículos ocupan 35 densas páginas a dos columnas en el BOE.

¿Redundante? Pienso que Ainsley Hayes nos remitiría al artículo 14 de la Constitución española:

Artículo 14Los españoles son iguales ante la ley, sin que pueda prevalecer discriminación alguna por razón de nacimiento, raza, sexo,religión, opinión o cualquier otra condición o circunstancia personal o social.

Cierro convencido de que la simplicidad bien aplicada, también a la regulación, es siempre un objetivo y un buen principio.

Un principio que sería útil tomar en cuenta a la hora de regular lo relativo a la innovación disruptiva y las tecnologías exponenciales. Este artículo («Exponential growth devours and corrupts«) propone algunos principios simples, pero no demasiado simples. Tema para próximas entradas.

Yo no soy mi cerebro y mi cerebro no es como un ordenador

“We see the world not as it is, but as we are──or, as we are conditioned to see it.” (Stephen Covey)

Una consecuencia de los innegables avances en la (mal) llamada inteligencia artificial es propiciar la reflexión acerca de la mente humana, de la naturaleza de la inteligencia natural y del rol del cerebro en la manifestación de esta inteligencia.

Desafortunadamente, mucho de lo que se publica al respecto evidencia la enormidad de la brecha que existe entre la visión cinetífico-materialista y la filosófico-humanista.

Por ejemplo, Javier Sampedro se refiere en El País a «la evidencia aplastante de que nuestra mente no es más que una colección de átomos.» No da pistas de esa evidencia, ni ofrece tampoco argumentos convincentes de cómo “una simple colección de átomos” es capaz de concebir avances científicos como, por ejemplo, la mecánica cuántica.

Menos aún podrá ese articulista argumentar cómo la simple colección de átomos que es su mente puede concebir que ella misma no es más que una simple colección de átomos. En cuyo caso ya no es tan simple, porque es una colección que tiene además alguna conciencia de su propia naturaleza.

El artículo «Is the Brain More Powerful Than We Thought?» proporciona otro ejemplo interesante. Según investigaciones recientes en UCLA, podría ser que las dendritas tuvieran en el funcionamiento del cerebro un papel más importante del hasta ahora contemplado. La consecuencia sería que «la capacidad de computación del cerebro sería 100 veces mayor de lo que habíamos pensado.»

Mi intuición es que a lo que realmente apunta esta investigación es a la posibilidad de que el ‘marco  mental‘ que asimila el cerebro a un ordenador sea equivocado. Posiblemente también lo sean los intentos de utilizar ordenadores para entender el funcionamiento del cerebro (más sobre éso en una próxima entrada). Quizá la realidad exceda a las capacidades de la computación, y lo que sucede es que, como dice el aforismo, cuando uno sólo tiene un martillo todo lo que ve le parecen clavos.

Una posibilidad a la que apunta desde el lado de la filosofía el notable libro de Markus Gabriel, del que reproduzco la portada. Una lectura que pienso debería ser obligada para cualquiera interesado en salvar la brecha entre ciencia y humanidades a la que me refería al principio. Me limitaré a reproducir algunos de sus puntos de partida, que en el resto del libro se desarrollan y fundamentan :

  • «La mente humana no es un fenómeno puramente biológico.»
  • «Somos seres espirituales que no pueden ser plenamente entendidos si se intenta basar nuestra imagen humana en el modelo de las ciencias naturales.»
  • «Los procesos hasta ahora solo esbozados para delegar nuestro autoconocimiento a las disciplinas científicas de nueva creación son ideológicos, y por tanto fantasías equivocadas.»

Una obra ambiciosa y atrevida, que muestra la diferencia entre un enfoque filosófico que aspira a entender y el de las ciencias naturales que se limitan a explicar.

 

 

 

 

 

La regulación con sentido es un reto para cualquier inteligencia

Llevar a la práctica el ‘Brexit’ obligará al Gobierno Británico a reponer, transponiéndolas o adaptándolas, todas las leyes y regulaciones de la Unión Europea que dejarán de ser vigentes en el Reino Unido una vez se consume la separación.

Un trabajo considerable. Traduzco del documento oficial del Gobierno:

«No hay una cifra única acerca de cuánta legislación de la UE forma parte de la legislación del Reino Unido. De acuerdo con EUR-Lex, la base de datos legal de la UE, actualmente hay más de 12.000 reglamentos de la UE vigentes […] La investigación de la Biblioteca de la Cámara de los Comunes indica que alrededor de 7.900 instrumentos legales han aplicado la legislación de la UE.«

Un diagnóstico aque asusta. En primer lugar, porque la propia administración no está segura de cuántas regulaciones europeas está en teoría aplicando (ni cuáles, en consecuencia). Pero, y sobre todo, porque intuyo que la comprensión e interiorización de decenas de miles de reglamentos, cada uno de ellos probablemente con decenas o centenares de artículos, está fuera del alcance de la capacidad de la inmensa mayoría de las mentes.

Lo cual, más allá del caso británico (porque supongo que la mayoría de esas mismas regulaciones deben estar vigentes en España), propicia varias cuestiones :

  1. Dado que es imposible que cada uno de nosotros las conozca y las entienda, ¿cuál es la probabilidad de que estemos incumpliendo alguna de estas decenas de miles de leyes o reglamentos sin ni siquiera ser conscientes de que existen?
  2. ¿Son todas estas regulaciones realmente necesarias? ¿No cabrían enfoques alternativos para ordenar el funcionamiento de la sociedad?
  3. ¿Cuál sería la metodología y la técnica más eficiente para transponer esa legislación, como se proponen hacer los británicos? ¿Y para modificarla y hacerla más comprensible?

Al respecto de esta última cuestión, ¿podría la inteligencia artificial ayudar a la natural en estas tareas de re/regulación?

Por coincidencia o no, han aparecido en mi pantalla varias lecturas que sugieren una respuesta positiva:

  • «JPMorgan Software Does in Seconds What Took Lawyers 360,000 Hours«. El banco trata de simplificar sistemas y evitar redundancias. Un nuevo software lleva a cabo en segundos tareas que requerían 360.000 horas de trabajo (in)humano.
  • «Beyond Tech: Policymaking in a Digital Age«. Una propuesta de rediseñar el proceso de elaboración de normas y, en última instancia, la elaboración de leyes. A medida que aumenta la complejidad de la sociedad, la probabilidad de que la primera versión de una regulación resulte ser la correcta es pequeña. Se habrá de aprender a perfeccionar leyes imperfectas.

Ahora bien, como la tecnología es un arma de dos filos, y como el dominio de estas tecnologías expertas está cada vez más en manos de intereses privados, tendríamos que dar por supuesto que aparecerán propuestas de ‘inteligencias privadas’ para ‘ayudar’ al legislador. Síntomas de ello aparecen ya en las publicaciones cómo ésta («How can we regulate the digital revolution?«) del  World Economic Forum:

«Como son tantas las cuestiones normativas que aparecen al respecto de los nuevos modelos de negocio que utilizan tecnologías exponenciales, algunos propietarios de negocios están adoptando un rol proactivo. […] Necesitan trabajar con los gobiernos  ​​para desarrollar regulaciones flexibles, transparentes y participativas, basadas en nuevos modelos de colaboración entre los sectores público y privado […] con miras a optimizar los resultados, el impacto y la sostenibilidad«.

La cuestión, sin embargo, es determinar el sentido preciso de esta ‘optimización’, que para los autores del artículo, es que «los innovadores tengan la libertad de aplicar las tecnologías de mañana sin que las regulaciones de ayer las reduzcan.«

¿Cómo nos posicionamos ante la perspectiva de que aparezcan sistemas de inteligencia artifical legisladora, con capacidades posiblemente superiores a las de los políticos y los organismos reguladores y legisladores actuales? (lo que tampoco, dicho sea de paso, parece mucho pedir).

¿Es irresponsable el optimismo tecnológico?

La serendipia internética me lleva hasta «Humanity and AI will be inseparable«, una entrevista con la investigadora responsable de machine learning en Carnegie-Mellon.

Una de sus afirmaciones me llama especialmente la atención:

«Creo que la investigación que estamos haciendo en sistemas autónomos – coches autónomos, robots autónomos – es una llamada a la humanidad para ser responsable. En algun sentido, no tienen nada que ver con la tecnología. La tecnología se desarrollará. La inventamos nosotros – los humanos. No viene del cielo ni de extraterrestres. Es nuestro descubrimiento. Es la mente humana la que ha concebido este tipo de tecnología, y es por tanto la responsabilidad de la mente humana hacer un buen uso de ella.»

Se me antoja que es una afirmación certera y a la vez inútil en la práctica.

Porque lo cierto es que ‘la mente humana’ no existe como tal. Es solamente una abstracción. Existen, desde luego, mentes humanas. Muchos tipos de mentes humanas, con una variedad enorme de características. Y no todas ellas gobiernan conductas que pudiéramos considerar precisamente como responsables. Las evidencias son tan numerosas y cercanas que no hace falta ni siquiera empezar a enumerarlas.

Más aún. Algunas mentes humanas actúan, casi literalmente, como si estuvieran poseídas por fuerzas del mal. (¿Hacen falta ejemplos?) Podemos tener pues la absoluta seguridad de que habrá mentes humanas que se aplicarán, si no lo están haciendo ya, a utilizar los resultados de la investigación en inteligencia artificial para fines que poco tendrán que ver con el beneficio de la humanidad. Eso, además de la posibilidad de que mentes enfermas, que también las hay, se apliquen exclusivamente a hacer daño.

A partir de ahí, ¿cuál es la mente humana responsable a la que se refiere la investigadora?

Más en concreto, me pregunto ¿cuál es la responsabilidad de las mentes humanas que impulsan, desarrollan y financian nuevas tecnologías como la inteligencia artificial? ¿Deberían hacerse responsables de los usos malévolos que puedan aparecer? ¿Deberíamos hacerles responsables?

Langdon Winner escribió hace ya tiempo que «en el terreno técnico repetidamente nos involucramos en diversos contratos sociales, las condiciones de los cuales se revelan sólo después de haberlos firmado

Añadiría que, en demasiadas ocasiones, quien firma el contrato ni siquiera nos lo enseña. Y, si quien lo firma es un político de los de hoy, me temo que haya una alta probabilidad de que lo firme sin leerlo o sin entenderlo.

Ideología e instituciones para la Revolución Industrial 4.0

El Presidente del World Economic Forum (WEF), organizador de la célebre reunión de Davos, parece tener la certeza de que estamos abocados a una cuarta revolución industrial:

«Estamos al borde de una revolución tecnológica que alterará los fundamentos del modo en que vivimos, trabajamos y nos relacionamos unos con otros. Por su escala, alcance y complejidad, esta transformación será diferente de todo lo que la humanidad ha experimentado hasta ahora.»

Se trata de una afirmación discutible. De entrada, porque no es la revolución tecnológica lo que ha provocado, provoca o puede provocar la transformación de la humanidad. Recordemos, una vez más, el dictamen de  Peter Drucker:

«La sociedad de 2030 será muy diferente de la actual y muy poco parecida a la que predicen los futuristas más prominentes. No estará dominada, ni siquiera conformada por la tecnología. La característica central de la nueva sociedad, como la de sus predecesores, serán nuevas instituciones y nuevas teorías, ideologías y problemas

La evidencia muestra, en efecto, que la ideología del capitalismo de mercado y las instituciones diseñadas desde esta ideología fueron el verdadero desencadente de la revolución industrial en Occidente. La tecnología fue el instrumento de ese modelo de desarrollo social. En los países comunistas, la misma tecnología, conducida desde la ideología marxista, fue instrumental para otro modelo totalmente distinto.

El CEO del WEF es ambiguo, creo que deliberadamente, sobre el modo en que tendrá lugar esta nueva gran transformación. Por una parte reconoce que:

«Ni la tecnología ni la disrupción que la acompaña son fuerzas exógenas acerca de las cuales los humanos carecen de control.

Tras lo cual concluye que:

Todos nosotros somos responsables de guiar su evolución […] Deberíamos aprovechar la oportunidad y el poder que tenemos para conformar la Revolución Industrial 4.0 y dirigirlas hacia un futuro que refleja nuestros objetivos y valores comunes.»

La ambigüedad, claro está, reside en el alcance del nosotros al que se refiere. ¿Cuáles son esos objetivos y valores? ¿Cuál es la comunidad que los tiene en común? ¿Quién, exactamente, tiene ese poder de conformar el rumbo de la RI 4.0?

La realidad, entre otras, de la política actual es una muestra de la fragmentación de la sociedad y de la dificultad de encontrar objetivos y valores comunes. También de la dificultad, cuando no de la impotencia, de las instituciones para gestionar esta realidad. La postura del WEF ante esta realidad planta una semilla muy peligrosa:

«Los gobiernos se enfrentarán a una presión creciente […] a medida que su rol central de conducir la política disminuye debido a nuevas fuerzas de competencia y a la redistribución y descentralización del poder que las nuevas tecnologías hacen posible […] En último término, la capacidad de adaptación de los sistemas de gobierno y las autoridades públicas determinará su supervivencia.»

La evolución tecnológica y la disrupción que comporta no son un fenómeno espontáneo. Resultan de objetivos, intenciones, impulsos e inversiones encarnadas en colectivos más o menos indeterminados, pero de ningún modo inclusivos ni demostrablemente democráticos. Es irresponsable descartar sin más la posibilidad de que, como señala Douglas Rushkoff en su último libro,

«Las nuevas tecnologías no se estén desarrollando para el beneficio de la humanidad, ni siquiera el de nuestros negocios, sino para maximizar el crecimiento del mercado especulativo. Y resulta que no da lo mismo.» 

Concluir entonces que lo único que las instituciones públicas deben hacer sea adaptarse equivale prácticamente a proponer un golpe de Estado. Que podría funcionar, porque el CEO del WEF tiene un punto (o más) de razón  cuando concluye que:

«Los decisores [públicos] de hoy están a menudo demasiado atrapados en un pensamiento lineal tradicional […] como para pensar estratégicamente acerca de las fuerzas de disrupción e innovación.»

También cuando afirma que:

«Los sistemas actuales de formación de políticas [públicas] y de toma de decisiones evolucionaron […] cuando los decisores tenían tiempo para estudiar cada asunto y desarrollar la respuesta necesaria y el marco regulatorio adecuado.»

Pero ‘adaptarse‘ no puede ser la única opción. Corresponde a la tecnología y a quienes la impulsan aportar a la sociedad opciones, pero no decidir sobre ellas. Un organismo vivo, y la sociedad lo es, crece no en función de los nutrientes más abundantes, en este caso la tecnología, sino de los más escasos. En este caso, como reconoce el propio WEF, la responsabilidad del liderazgo es ayudar a proporcionar respuestas sobre el ‘para qué’ de cada una de las opciones tecnológicas y sobre el ‘cómo’ desplegar las que corresponda.  Algo para lo que serán necesarios innovación nuevos diseños institucionales y sociales inspirados por valores que vayan más allá de la simple eficiencia tecnológica.

Será cuestión de ponerse a ello.

La exponencialidad no es una causa, sino una consecuencia

“Idea TFP” is defined as the ratio of the output of ideas to the inputs used to make them.

Es cada vez más habitual que se nos presente la evolución exponencial de las tecnologías poco menos que como resultado de una ley natural e incontestable. Algunos creen en ella, o así lo aparentan, con una fe poco distinta de la religiosa. Otros intentan construir una teoría integrada de la tecnología, presentándola como una fuerza sobrenatural a la que la condición humana y la sociedad tienen la obligación de acomodarse.

A este respecto, los estudios sobre la interacción entre tecnología y sociedad han puesto repetidamente de manifiesto la falacia ideológica inherente a considerar tecnología y sociedad como dos entidades independientes. De hecho, es posible argumentar de forma plausible que el desencadenante de la Revolución Industrial no fue tanto el desarrollo tecnológico como la adopción de la ideología del capitalismo de mercado.  El modo en que las tecnologías se desarrollaron en los laboratorios e implantaron en la sociedad estuvo (y está) directamente influido por el impulso de inversores, que cada vez en mayor proporción son inversores corporativos, representantes de grandes capitales.

Por eso me parece interesante reseñar un estudio de investigadores de Stanford (.pdf) que argumenta que la productividad en la producción de ideas lleva décadas disminuyendo de forma notoria; el ritmo de crecimiento de la tecnologia se mantiene o aumenta como consecuencia de multiplicar los esfuerzos en I+D:

«Exponential growth results from the large increases in research effort that offset its declining productivity.«

Si estos investigadores han hecho bien su trabajo, cuando nos hablen de la evolución exponencial de las tecnologías tendremos que tener en mente que es una consecuencia de un impulso inversor creciente. «Follow the Money«. Al considerar el impacto en la sociedad de las tecnologías exponenciales  hemos de pensar en qué tipo de impacto persiguen quienes invierten en ellas. Podría continuar, pero ahí lo dejo por ahora.