Si no tiene capacidad de predicción, ¿es ciencia?

Imagen: Christian Schnettelker

Leo en La Vanguardia una entrevista con Jean Tirole, Premio Nobel de Economía.

Me interesa y sorprende su titular:

«Los economistas no son buenos en previsiones

Siempre había entendido que lo que caracteriza a una disciplina científica es su capacidad de predicción. Por eso no estoy seguro de a dónde apunta el profesor Tirole con su afirmación.

Una posibilidad es que insinúe que tal vez la Economía (la denominada ‘ciencia económica‘) no debería ser considerada como ciencia. Como mínimo, no en el mismo sentido que la Física, por ejemplo.

No sería el único apuntando en esa dirección. En su libelo  «La economía no existe«, Antonio Baños escribía, creo que más en serio que en broma, que la economía, “si fuera una ciencia, sería la ciencia del ya veremos”. En la misma línea, para el autor del muy recomendable «Economía para el 99% de la población»,

La economía nunca podrá ser una ciencia en el sentido en que lo son la química o la física […] en particular porque los seres humanos —a diferencia de las moléculas químicas o los objetos físicos— tienen voluntad propia y libre albedrío”.

Hay otras interpretaciones posibles. Pudiera ser que el comentario de Tirole no apuntara a la Economía, sino a la capacidad de predicción de los economistas. Un grupo social entre el que, citando a The Economist, «no abundan los intelectos humildes y pragmáticos«.

Aunque también puede ser que todo lo anterior sea una disquisición originada por la sensación creciente de que quizá nos convenga una mirada colectiva a los límites de las ciencias (no sólo de la Economía) y a las limitaciones de algunos científicos. Tema para próximas entradas.

 

 

Universos paralelos

El anuncio de los primeros resultados públicos de Snap me confirma en mi impresión de que algunos no sólo vivimos en un universo paralelo a los usuarios de Snap, sino también en uno diferente al de sus inversores.

En resumen, durante el último trimestre, la empresa

  • Ha ingresado 149,6 millones de dólares.
  • Ha perdido 2.208 millones, de los cuales alrededor de 1.100 millones se atribuyen a la compensación a ejecutivos y empleados por el éxito de la salida a Bolsa. La siguiente partida en importancia es el coste de 722 millones de dólares en investigación y desarrollo.

Así y todo, estos números, que podrían seguramente ocasionar un mareo a un ‘controller’ convencional, no sorprenden tanto cuando se observa que la empresa tiene todavía 3.242 millones de dólares en caja. Lo cual sapunta a otra disonancia cognitiva: la dificultad de sintonizar con los criterios de los inversores que apuestan una suma de este calibre al futuro de una empresa como Snap.

Todo ello sin entrar en la que quizá sería la cuestión de más enjundia: ¿Cómo valorar que se esté dando tanta relevancia a una empresa cuyo objetivo nominal es que «las personas se expresen, vivan el momento, conozcan el mundo y se diviertan juntas«?

Viñeta: The New Yorker.

 

Hemos de dar más valor a lo humano

Entiendo esta viñeta de El Roto en El País como una llamada a clarificar nuestros valores en la mirada al triple terreno de la tecnología, el progreso y la esencia de la naturaleza humana.

Una llamada de atención que propician titulares como éste: «Science Has Outgrown the Human Mind and Its Limited Capacities«. (La ciencia sobrepasa la mente humana y sus capacidades limitadas).

El punto de partida del articulista es que «la ciencia está en medio de una crisis de datos» y que «una estrategia prometedora es integrar máquinas e inteligencia artificial en el proceso científico», porque «las máquinas tienen más memoria y una capacidad de computación mayor que el cerebro humano.»

Sin embargo, no es para nada evidente que la memoria y la capacidad de computación sean imprescindibles para la ciencia. Como mínimo para que la Wikipedia define como «una actividad sistemática que genera y organiza el conocimiento en forma de explicaciones verificables y predicciones sobre el universo». (Un contraejemplo en una próxima entrada).

A lo que tal vez apunta el articulista es que el volumen de la producción de los científicos (o de quienes se autocalifican como científicos) ha crecido más allá de la capacidad de lectura, de asimilación y de comprensión de un individuo. Pero pudiera ser que la crisis a la que se refiere no sea consecuencia de un exceso de datos sino de una mala selección de buenas preguntas.

Sabemos que situaciones de este tipo se dan en otros ámbitos.

  • En el ámbito del Big Data, por ejemplo, se evidencia que es cada vez más importante saber qué preguntar y para qué.
  • Los medios generan un exceso de informaciones, algunas de las cuales no deberían ser noticias y otras no tendrían por qué interesarnos. Lo razonable no es intentar procesarlas todas, con o sin ayudas de inteligencia artificial. Lo sano y sensato es tener una conciencia clara de la naturaleza de las informaciones que debemos estar abiertos a sintonizar y de aquellas de las que es mejor ignorar incluso la existencia. Lo cual, corregido y aumentado, se aplica también a las redes sociales.

Por contra, por citar sólo un ejemplo, la publicación de Einstein en 1905 sobre la teoría de la relatividad no hace referencia a ningún dato experimental. No hacía falta, porque la base su investigación no era analizar datos, sino plantearse buenas preguntas. Sobre las que trabajó, dicho sea de paso, recurriendo a la creatividad y no a la computación.

No dejemos que nos engañen. La tecnología, incluyendo la inteligencia artificial y los robots, sólo proporciona respuestas. Sin desvelar a menudo la ‘pregunta poderosa(¿Para Qué?) a la que responde su existencia. Creo que está en la esencia del ser humano la capacidad y la responsabilidad de formular preguntas pertinentes. Por eso me irrita y a la vez preocupa constatar los esfuerzos cada vez más visibles de quienes se esfuerzan en menospreciar las capacidades de los humanos para (sobre)vender mejor las prestaciones de sus artefactos. No deberíamos perder esta batalla.

 

Un panorama asombroso y aterrador

Corremos en masa hacia lo virtual porque lo real nos exige demasiado.
(Nicholas Carr)

El anuncio de los planes de Facebook para integrar la realidad virtual y la realidad aumentada en su estrategia ha tenido un eco considerable, que no es mi intención aumentar desde aquí.

Me sorprende, sin embargo, encontrar pocas menciones del precedente de Google Glass, un intento de Google con intenciones similares (y tecnología menos potente, supongo) que a la postre resultó fallido después de ser (según Fortune) uno de los ‘gadgets’ más sobrevendidos.

Confieso que no me disgustaría que las intenciones de Facebook sobre sus aplicaciones de la realidad virtual tuvieran un final similar a las de las gafas de Google. Por los mismos motivos que en su momento me suscitó el anuncio de Google:

  • La sensación creciente de que, como escribía Morozov en el New York Times, los gurús tecnofílicos de Silicon Valley se han embarcado en el empeño de ofrecernos posibilidades virtuales de desviar nuestra atención de la realidad real.
  • En The New Yorker, George Parker escribía en la misma línea: «Cuando las cosas no funcionan en el reino de lo real, la gente se dirige hacia el reino de los bits. Si el mundo físico resulta ser intransigente, podemos refugiarnos en el virtual».

Recuerdo al respecto que la afirmación del ex-CEO deGoogle, en Barcelona hace 10 años, de que los móviles nos convierten en cyborgs, pero del buen género. Me alarmó, sobre todo, porque lo decía tan satisfecho. Seguramente porque un futuro de cyborgs domesticados, consumidores de una realidad virtual filtrada por Google (o Facebook) sería bueno para el futuro de su negocio.

De vuelta a 2017, un medio nada sospechoso de tecnofobia como Business Insider titulaba que «la visión de Facebook para el 2026 es asombrosa y aterradora».

Sólo añadiré que, en la literatura de todos los tiempos, la presencia del diablo es también asombrosa y aterradora. Pura coincidencia, seguramente.

¿Conectar mi cerebro a Internet? No, gracias.

En un artículo en The Economist se preguntan si «tenemos los humanos que asumir que necesitaremos implantes en el cerebro para seguir siendo relevantes».

La pregunta surge al hilo de la noticia de que Elon Musk, el CEO de Tesla e impulsor de otras empresas de tecnología avanzada, ha anunciado la formación de Neuralink,  una nueva empresa que tendría como primer objetivo producir dispositivos invasivos para diagnosticar o tratar enfermedades neurológicas.

Parece, sin embargo, que la intención de la empresa, o cuanto menos de su promotor, apunta más lejos. Musk ha manifestado en una entrevista que los humanos corren el riesgo de acabar siendo tratados como mascotas por artefactos dotados de inteligencia artificial. Propone como una posible solución añadir artificialmente al cerebro una capa digital que, conectada a Internet, multiplicaría la memoria y la capacidad de computación del cerebro, y por tanto nuestra inteligencia.

Una perspectiva que la comunicadora de la Singularity University glosa de este modo:

«Podríamos multiplicar por mil nuestra inteligencia e imaginación. Sería una disrupción radical en cómo pensamos, sentimos y comunicarmos. Al transferir nuestros pensamientos y sentimientos directamente a otros cerebros podríamos redefinir la socialización y la intimidad de los humanos. En último término, subiendo nuestro Yo completo a las máquinas nos permitiría transcender nuestra piel biológica y convertirnos en digitalmente inmortales.»

Dos objeciones. La primera es filosófica. Afirmaciones de este tipo dejan traslucir una concepción materialista, o informacionalista si se prefiere, del ser humano. Pero no está nada claro que esta concepción tenga ninguna base científica. Me parece más convincente la argumentación de nuestra naturaleza espiritual que presenta Markus Gabriel en («Yo no soy mi cerebro«)

La segunda objeción es estratégica. ¿Es inevitable que hayamos de competir con artefactos dotados de inteligencia artificial? ¿Cuál es el sentido de decidir crear esos artefactos para que compitan con nosotros? ¿No merecería ese asunto algún tipo de dictamen democrático?

Además, incluso si era competencia fuera inevitable, las normas elementales de la estrategia dictan que nunca hay que escoger el terreno más favorable para el adversario. Si los artefactos nos superan en inteligencia digital, por llamarla de algún modo, tendrá sentido retarles en ámbitos donde otro tipo de inteligencia sea la determinante. Volvernos más digitales sería sólo un modo de ser hacernos más similares a ellos, y por tanto más vulnerables.

Conmigo, desde luego, que no cuenten.

Imagen: Singularity University

La filosofía es necesaria para entender la ciencia

«Los modelos matemáticos – nos cuentan en el video adjunto – nos proporcionan imágenes bonitas y fáciles de digerir acerca de cómo funciona el Universo […] Pero debemos tener cuidado sobre el valor que damos a estos modelos en nuestro pensamiento […] El modo en que describimos el mundo influencia cómo creemos que es el mundo. Incluso cuando hay otros modos igualmente correctos de describir el mundo que emplean imágenes totalmente distintas de las nuestras.

[youtube https://www.youtube.com/watch?v=lHaX9asEXIo&w=800&h=450]

¿Por qué llamar la atención sobre ello? Porque, citando a Marcelo Gleiser, el análisis de los límites de la ciencia es muy necesario cuando la arrogancia en la especulación científica es manifiesta. De que haya leyes de la naturaleza no se deduce directamente, que todo lo que sucede obedezca a leyes naturales. La suposición de que sólo es genuino el conocimiento científicamente asegurado y formulado en un lenguaje supuestamente experto es sólo eso, una suposición que no puede probarse científicamente.

Reflexiones de este tipo parecen especialmente necesarias en el terreno de la neurociencia. Observamos que es cada vez más frecuente que se describa el cerebro como una máquina, o al ser humano como un complejo procesador de información. Quizá sólo porque falta imaginación para pensar de otro modo. Quizá porque, como apuntaba Jaron Lanier, interesa a algunos degradar a las personas para que los ordenadores parezcan más potentes.

Me anima leer a alguien como Seth Godin escribir así sobre (los límites) de la ciencia:

«La ciencia es un proceso. No se trata de pretender que tiene la respuesta correcta; solamente que es el mejor proceso para acercarse a la respuesta correcta.»

Creo que más de un científico, y sobre todo más de un pseudo-divulgador de la ciencia o divulgador de la pseudo-ciencia podrían aprender de él algo más que marketing.

Continuará.

La fe en la ciencia es también un acto de fe

Es cada día más frecuente encontrar quien describe como VUCA (Volátil, Incierto, Complejo, Ambigüo) el mundo en que vivimos.

Es posible que no quede otro remedio que acostumbrarnos a vivir de forma permanente en este estado de volatilidad, incertidumbre y ambigüedad (doy por sentado que la complejidad ha llegado para quedarse).

Pienso, sin embargo, que una gran mayoría de las personas prefieren (como mínimo en alguna medida) la estabilidad, la certidumbre y la claridad. Pero cada vez está menos claro cómo conseguirlas, de qué recurso o recursos echar mano.

Quizá el más tradicional sea la religión y la fe en la religión. Pero está cada vez menos de moda. Para otros, la ciencia, la tecnología y el progreso basado en el desarrollo científico y tecnológico será la solución de todas las incertidumbres. Dos puntos de vista que a menudo se contraponen.

Un artículo reciente sobre la posverdad proporciona un ejemplo ilustrativo.  Al hilo de la confrontación entre datos y posverdad, el articulista se pregunta:

«¿Nos podrán salvar los números de la posverdad?»

Y se responde:

«Desde luego, pero que lo hagan dependerá de que logremos ilustrar a la gente. De que convenzamos al mundo de que debe entender la matemática y la ciencia. De que enseñemos a los maestros a enseñar a los alumnos a pensar de forma racional, inteligente y creativa. De que construyamos una sociedad abierta que adopte la razón como guía.»

El peligro que denuncia es que «muchas veces las certezas tienen más que ver con la fe que con la realidad», y que «la fe es irracional».

Afirmaciones a las que se pueden oponer dos réplicas:

  • Si la fe, en lo que sea, existe, es que forma parte de la realidad. La existencia de la fe es una certeza.
  • La fe en la ciencia y en la tecnología no deja de ser también un acto de fe.

La segunda me parece más fundamental y evidente, por más que los más apegados al materialismo científico se empeñen (de modo quizá no consciente) en ignorarlo. Traduzco de un artículo en una publicación para nada anti-científica como Wired:

«Esta es la naturaliza de la ciencia. Nunca ‘prueba’ nada de forma definitiva. Todo lo que la ciencia puede hacer es ofrecer la mejor respuesta usando un modelo basado en los datos disponibles […] La ciencia no puede probar que el modelo sea cierto, pero puede probar que no lo es […] Por ello nunca me ha gustado el término ‘hecho científico’ o la frase ‘La ciencia prueba que …’. Entiendo lo que la gente quiere decir con ello, pero no es como la ciencia funciona.»

¿Cómo funciona pues la ciencia? Copio de un libro de una física mediática (negrillas añadidas).

«Los científicos tratar de imaginar objetivamente cómo suceden las cosas y qué marco físico podría explicar lo que observan. Quienes trabajan en la ciencia tratan de evitar que las limitaciones o los prejuicios humanos nublen la imagen de modo que puedan confiar en sí mismos para obtener una comprensión no sesgada de la realidad.»

Creo que, además de lo improbable de la imaginación objetiva, es evidente que este párrafo contiene, aparte de un acto de fe en la ciencia, uno añadido acerca de la capacidad de los científicos de evitar limitaciones y prejuicios humanos, empezando por los suyos propios. De hecho, según otro artículo en Wired,

«Investigadores la Universidad de Yale han demostrado que las personas con un nivel alto de educación son las más inquebrantables en sus convicciones.»

Concluyendo. La insistencia de algunos científicos, basándose en su inquebrantable fe en la ciencia, en contraponer fe y ciencia me parece no sólo contradictoria, sino poco científica.

El futuro no está en los datos

Confieso un desasosiego creciente por el modo en que a menudo se abordan los temas tecnológicos y/o científicos en los medios de comunicación en general.

La portada que reproduzco, del suplemento Ideas de El País de 26/3/2017 me sirve de ejemplo.

En primer lugar, aunque en tono menor, me desorienta que se escoja esa fotografía como portada de una edición que tiene el ‘Big Data’ como asunto central. El pie de foto indica que se trata de seis científicos trabajando en un centro de control de satélites en 1957. Mucho antes, como es obvio, del nacimiento del ‘Big Data’. Se observa de otra parte que, como cabría esperar, los seis personajes trabajan no con datos, sino con ecuaciones de movimiento y fórmulas trigonométricas.

Anécdotas aparte, es el titular «El futuro está en los datos» el que realmente motiva esta entrada. Estrictamente hablando, los datos reflejan solamente el pasado. Es cierto que usando esos datos se pueden hacer hacer modelos explicativos de cosas que sucedieron, con la expectativa de que esos modelos sirvan de guía para predecir cosas que podrían suceder.

Pero, incluso si compramos al 100% esta expectativa, es en los modelos y no en los datos en donde (quizá) está el futuro.

Cuando emergía todo este asunto del Big Data se puso de moda afirmar que «Data is the new oil«. Que los datos serán para la economía digital lo que el petróleo para la industrial. Pero el petróleo, siendo un combustible fósil, fue y sigue siendo una herencia del pasado. El futuro nunca estuvo en el petróleo, sino en las perspectivas de su extracción, tratamiento y uso.

La analogía sirve también para recordar que el quasi-monopolio del acceso al petróleo fue en su momento el origen de grandes fortunas. La posibilidad de explotar un similar quasi-monopolio de acceso a los datos (nuestros datos) es un futuro que algunos persiguen. Pero esa es otra cuestión.

La simplicidad es un buen principio

Mi esposa y yo estamos volviendo a ver «El Ala Oeste de la Casa Blanca«. ¿Por qué? Porque es mucho mejor que la mayor parte de lo que se puede ver por la tele estos días. Además, hace tiempo que tenía ganas de hacerlo con un bloc de notas a mano y tomar apuntes. Quizá para un taller de liderazgo, algún día (Borgen sería otra posibilidad).

Segunda temporadade la serie. Episodio «17 People». Encuentro en YouTube este fragmento sobre una trama secundaria.

[youtube https://www.youtube.com/watch?v=NXPLirJRGDQ&w=800&h=450]

Sam y Ainsley Hayes (una abogada republicana que forma parte del equipo) discuten sobre la Equal Rights Amendment, una propuesta de enmienda a la Constitución de los EEUU, cuyo primer artículo  rezaba así:

«La igualdad de derechos ante la ley no puede ser negada ni restringida por los Estados Unidos o por ningún Estado por motivos de sexo.«

Para sorpresa de Sam, Ainsley se opone a la enmienda, por considerarla redundante:

AINSLEY
The 14th Amendment which says a citizen of the United States is anyone that's
born here... that's me... and that no citizen can be denied due process. I'm
covered. Make a law for somebody else.

Más adelante,

SAM
If the Amendment's redundant, what's your problem if it's passed or not?

AINSLEY
Because I'm a Republican! Have we met? I believe that every time the federal
government hands down a new law, it leaves for the rest of us a little less freedom. So
I say, let's just stick to the ones we absolutely need to have water come out of
the faucet and our cars not stolen. That is my problem with passing a redundant law.

Todo ello viene a cuento de una entrada anterior sobre la (¿excesiva?) complejidad de la regulación, en general. Y de constatar que existe en España una Ley Orgánica (3/2007) para la igualdad efectiva entre hombres y mujeres, cuyos 78 artículos ocupan 35 densas páginas a dos columnas en el BOE.

¿Redundante? Pienso que Ainsley Hayes nos remitiría al artículo 14 de la Constitución española:

Artículo 14Los españoles son iguales ante la ley, sin que pueda prevalecer discriminación alguna por razón de nacimiento, raza, sexo,religión, opinión o cualquier otra condición o circunstancia personal o social.

Cierro convencido de que la simplicidad bien aplicada, también a la regulación, es siempre un objetivo y un buen principio.

Un principio que sería útil tomar en cuenta a la hora de regular lo relativo a la innovación disruptiva y las tecnologías exponenciales. Este artículo («Exponential growth devours and corrupts«) propone algunos principios simples, pero no demasiado simples. Tema para próximas entradas.

Yo no soy mi cerebro y mi cerebro no es como un ordenador

“We see the world not as it is, but as we are──or, as we are conditioned to see it.” (Stephen Covey)

Una consecuencia de los innegables avances en la (mal) llamada inteligencia artificial es propiciar la reflexión acerca de la mente humana, de la naturaleza de la inteligencia natural y del rol del cerebro en la manifestación de esta inteligencia.

Desafortunadamente, mucho de lo que se publica al respecto evidencia la enormidad de la brecha que existe entre la visión cinetífico-materialista y la filosófico-humanista.

Por ejemplo, Javier Sampedro se refiere en El País a «la evidencia aplastante de que nuestra mente no es más que una colección de átomos.» No da pistas de esa evidencia, ni ofrece tampoco argumentos convincentes de cómo “una simple colección de átomos” es capaz de concebir avances científicos como, por ejemplo, la mecánica cuántica.

Menos aún podrá ese articulista argumentar cómo la simple colección de átomos que es su mente puede concebir que ella misma no es más que una simple colección de átomos. En cuyo caso ya no es tan simple, porque es una colección que tiene además alguna conciencia de su propia naturaleza.

El artículo «Is the Brain More Powerful Than We Thought?» proporciona otro ejemplo interesante. Según investigaciones recientes en UCLA, podría ser que las dendritas tuvieran en el funcionamiento del cerebro un papel más importante del hasta ahora contemplado. La consecuencia sería que «la capacidad de computación del cerebro sería 100 veces mayor de lo que habíamos pensado.»

Mi intuición es que a lo que realmente apunta esta investigación es a la posibilidad de que el ‘marco  mental‘ que asimila el cerebro a un ordenador sea equivocado. Posiblemente también lo sean los intentos de utilizar ordenadores para entender el funcionamiento del cerebro (más sobre éso en una próxima entrada). Quizá la realidad exceda a las capacidades de la computación, y lo que sucede es que, como dice el aforismo, cuando uno sólo tiene un martillo todo lo que ve le parecen clavos.

Una posibilidad a la que apunta desde el lado de la filosofía el notable libro de Markus Gabriel, del que reproduzco la portada. Una lectura que pienso debería ser obligada para cualquiera interesado en salvar la brecha entre ciencia y humanidades a la que me refería al principio. Me limitaré a reproducir algunos de sus puntos de partida, que en el resto del libro se desarrollan y fundamentan :

  • «La mente humana no es un fenómeno puramente biológico.»
  • «Somos seres espirituales que no pueden ser plenamente entendidos si se intenta basar nuestra imagen humana en el modelo de las ciencias naturales.»
  • «Los procesos hasta ahora solo esbozados para delegar nuestro autoconocimiento a las disciplinas científicas de nueva creación son ideológicos, y por tanto fantasías equivocadas.»

Una obra ambiciosa y atrevida, que muestra la diferencia entre un enfoque filosófico que aspira a entender y el de las ciencias naturales que se limitan a explicar.