La singularidad es una religión

Leo por ahí que la idea de la singularidad, que incluye la predicción de que la evolución de la (mal llamada) inteligencia artificial superará y hará obsoletas las capacidades de la inteligencia humana, es una religión.

O sea, en último término, la consecuencia de un acto de fe: el de la capacidad de quienes la defienden de crear una tecnología que supere las facultades que hasta ahora considerábamos exclusivas de los humanos.

O, si se prefiere, una consecuencia del cientificismo, la ideología que sostiene que la ciencia es el único modo válido de entender el mundo y resolver problemas sociales.

Me parece razonable. De hecho, la confianza ilimitada de muchos en el poder de la ciencia y de la tecnología es también una creencia basada en un acto de fe. O, si se prefiere, no pasa de ser una hipótesis de trabajo. Puede parecer plausible, porque la ciencia y el método científico han generado respuestas a muchos retos teóricos y prácticos. Pero no es demostrable que sean aplicables a todos los retos presentes y futuros.

«Los seres humanos siembre han construido mitos colectivos, con el objetivo de cohesionar, controlar y dar un sentido a su experiencia compartida. Los mitos nos guían, nos inspiran y nos permiten vivir en un universo que en último término es incontrolable y misterioso. Pero también pueden cegarnos ante las necesidades reales urgentes. […] La religión de la tecnología es uno de esos mitos.»

(David Noble, «La religión de la tecnología«).

Desde siempre hay quienes han instrumentalizado las religiones como instrumentos de poder sobre la conciencia y los comportamientos de personas y sociedades. Lo cual obliga a preguntarse si la religión de la singularidad se basa en un acto de buena fe, o es simplemente un instrumento interesado para acumular riqueza y poder. Más aún cuando quienes con mayor entusiasmo defienden la idea de la singularidad (p.e. la Singularity University) son los mismos que promocionan empresas exponenciales cuyo éxito, por la misma idea de exponencialidad, es alcanzar posiciones de oligopilio en sus mercados.

Conclusión. No perdamos la fe en la ciencia, pero desconfiemos de los ‘ultras de la ciencia’. Uno de ellos escribía hace poco en El País que «la ciencia siempre acaba destruyendo las creencias«. Una afirmación muy radical que sin embargo no deja de ser una creencia sin base científica. 

Para acabar. En ocasión de su 150 aniversario, la prestigiosa revista científica Nature ha publicado algunas reflexiones muy interesantes sobre el presente y futuro de la ciencia. Las recomiendo (y tal vez las comente en el futuro).

 

El cerebro no piensa; es sólo un instrumento

Emerge con intensidad creciente en estos tiempos que nos ha tocado vivir una admiración y un respeto mayor por la (mal llamada) inteligencia artificial (digital, algorítmica) que por la inteligencia natural.

No creo que sea una casualidad; casi nada lo es. Si se nos informa bien, el 67% de CEOs estadounidenses encuestados creen que el futuro de sus empresas reside en la tecnología, y no en las personas. Una sorpresa sólo relativa. Al fin y al cabo, las empresas constituye reflejan en sus balances el valor de los activos tecnológicos, pero no el de los recursos humanos.

Seguro que los fabricantes de tecnologías están encantados con este criterio de valoración. Al fin y al cabo, como avisó hace años Jaron Lanier, hay a quienes no les importa hacer que las personas parezcan obsoletas si ello supone que sus máquinas serán más y mejor valoradas.

Resulta por ello refrescante leer que una médico respetada sostienga en una entrevista en La Vanguardia que, en base a su experiencia con pacientes:

«La consciencia no es un producto de nuestro cerebro sino que utiliza a nuestro cerebro.«

Un proposición que a algunos nos parece verosímil, por mucho que no encaje con los enfoques mecanicistas que predominan en los ámbitos científicos.

Pienso por analogía. Quien en este video produce la música maravillosa del Adagio del concierto KV 622 de Mozart no es el clarinete, sino Martin Fröst. La música vive en el intérprete antes de que este la insufle en su instrumento.

Tiraría de este hilo para apostar que ningún neurocientífico encontrará la música de Mozart en el cerebro de Martin Fröst ni el de ningún otro intérprete mientras toca esa música, ni cualquier otra. Podríamos pues preguntarnos en dónde reside, más allá de las partituras, la esencia de ese precioso Adagio que Mozart compuso.  Aunque, persistiendo en la misma línea de pensamiento, quizá no sea descabellado imaginar que Mozart no lo compuso realmente, sino que tuvo el privilegio de que le escogieran para escribirlo al dictado.

Inocular el virus Bartleby a según qué ciencia

Dedico parte de mis lecturas veraniegas a una inmersión en las novelas antiguas de Enrique Vila-Matas, incluyendo «Bartebly y compañía«.

El protagonista de esta novela confiesa su empeño en rastrear el «amplio espectro del síndrome de Bartley en la literatura«, un síndrome cuya manifestación es

«la pulsión negativa o la atracción por la nada que hace que ciertos creadores, aún teniendo una conciencia literaria muy exigente (o quizá precisamente por eso), no lleguen a escribir nunca; o bien escriban uno o dos libros y luego renuncien a la escritura; o bien, tras poner en marcha sin problemas una obra en progreso, queden, un día, literalmente paralizados para siempre.»

Lo que me lleva a mencionar el síndrome Bartebly es una entrevista en El País Ideas (12/8/2018) con Max Tegmark, un físico teórico de MIT, a raíz de la publicación de su libro («Vida 3.0: Ser humano en la era de la inteligencia Artificial«). Si hubiera tenido en la memoria la novela de Vila-Matas cuando leí («Our Mathematical Universe«), una obra anterior de Tegmark, es posible que no hubiera podido resistirme al malévolo deseo de que fuera de algún modo, como escribiente, afectado por el síndrome Bartleby y se centrara en publicar sólo para la comunidad científica. Ahora sería aún más radical.

En la entrevista para El País, Tegmark manifiesta esta preocupación:

«nos arriesgamos a perder completamente el control del planeta a manos de un pequeño grupo de gente que desarrolle la Inteligencia Artificial».

El motivo, según su punto de vista, es que:

«Muchos de los líderes tecnológicos que están construyendo la IA son muy idealistas, y quieren que esto sea bueno para todos. Pero la principal motivación de las compañías que están desarrollando esta tecnología es ganar dinero .»

Su propuesta:

«Tenemos que ser proactivos. Es muy importante que no dejemos las discusiones sobre la inteligencia artificial sólo en manos de gente experta en tecnología como yo. Psicólogos, sociólogos o economistas deben participar en la conversación.«

Una dificultad obvia es la muy alta probabilidad de que quienes paguen a esos psicólogos, sociólogos o economistas sean las mismas empresas que financian la investigación de los científicos «idealistas», y que lo hagan con el mismo objetivo prioritario de ganar dinero.

Inspirado por Vila-Matas, se me ocurre que una alternativa, quizá igualmente improbable pero por qué no, sería inocular un virus Bartleby a los científicos que, desde un idealismo simplista, cuando no socialmente irresponsable, empujan el desarrollo de unas tecnologías cuyo control social ellos mismos reconocen como problemático. Sería bonito, quizá demasiado bonito, que el propio Tegmark fuera el primero en dar ejemplo.

Pre-juicios de la tecnociencia

Entrevistan en El Mundo a un neurobiólogo español de prestigio.

Afirma categóricamente que:

(1) La mente está en el cerebro. Todo lo que somos, la esencia del individuo, lo que pensamos, lo que nos define como personas, todo, está en el cerebro.

(2) El cerebro genera la mente. Si entendemos el cerebro, entendemos la mente. Si podemos leer la actividad del cerebro, podemos leer la mente.

(3) Imagínate que podemos leer la mente y podemos manipular la actividad del cerebro, entonces podemos manipular la mente.

Me resisto a darle la razón. En parte porque entiendo que su afirmación no es el resultado de una investigación, sino de un pre-juicio ‘a priori’. Porque intuyo como mucho más verdadera la perspectiva del filósofo Markus Gabriel, que comentaba en una entrada anterior:

  • “La mente humana no es un fenómeno puramente biológico.”
  • “Somos seres espirituales que no pueden ser plenamente entendidos si se intenta basar nuestra imagen humana en el modelo de las ciencias naturales.”

De otra parte, ¿qué pensaríamos de una afirmación como la siguiente?


«Imaginemos que nos dan un ordenador que ejecuta un software complejo y especializado. Por ejemplo, uno de esos nuevos programas de inteligencia artificial. La totalidad del programa y de los datos que maneja residen en el hardware del ordenador. El hardware es pues la esencia. Si podemos leer todos los bits almacenados y monitorizar todo el tráfico electrónico cuando el ordenador está funcionando, entenderemos todo lo que hay que entender.

No sólo eso, modificando los bits y quizá algún circuito podemos corregir posibles errores e incluso construir versiones mejoradas de ese ordenador.»


Creo evidente que cualquiera con un mínimo entendimiento sobre ordenadores y computación desaconsejaría por poco práctica una propuesta de este tipo. Porque:

  • Es prácticamente imposible, o como mínimo extremadamente laborioso,  hacer la ingeniería inversa de un programa en binario de una cierta para obtener el código fuente original.
  • Incluso si se tiene acceso al código fuente, muchos programas son realmente difíciles de entender, incluso por su autor cuando ha pasado un tiempo, a menos que haya una buena documentación de diseño y suficientes comentarios, lo que en la práctica pocas veces ocurre.
  • No es posible por el momento entender el razonamiento en base al cual toman decisiones los programas modernos basados en ‘deep learning‘ o similares; incluso los expertos los ven como una caja negra. En parte, regún entiendo, porque estos programas no razonan, sino que calculan a partir de matrices numéricas de gran tamaño.

Ya puestos en plan escéptico, añadiría que:

  • Hay evidencias de que algunos de los programas utilizados para analizar el funcionamiento del cerebro han resultado no ser fiables.
  • Parece ser que intentos de aplicar esos programas para entender la estructura y el funcionamiento de un ordenador sencillo han tenido, por así decirlo, resultados por debajo de lo esperado.

Mis conclusiones:

(1) El cerebro es un instrumento del pensar. Pero para entender el pensar habrá que mirar más allá del cerebro. Igual que para entender el tiempo hay mejores maneras que investigar cómo funciona uno de esos relojes con muchas complicaciones en los que los relojeros suizos son tan expertos.

(2) El problema con algunos científicos no es que sean ignorantes; es que, como ocurre a tantas personas, son más ignorantes de lo que se creen.

(3) Sobre las posibles reacciones a una entrada como ésta, recordar la advertencia de Bertrand Rusell: «Las opiniones más apasionadas son siempre aquellas para las que no existe fundamento«.

Dicho ésto, me encantará participar en un debate sobre los límites de la ciencia y este tipo de cuestiones.

Juan Arnau es un crack

Juan Arnau es astrofísico y filósofo. Publica en Atalanta. Copio, sin comentarios, del final de su último libro: «La fuga de Dios«:

«En el mundo moderno, el universo se construye desde abajo; es un universo evolutivo que va de lo simple a lo complejo, y su método expositivo es la inducción, esa herramienta lógica que va de lo particular a lo general.

En el mundo antiguo ocurría lo contrario: el universo se construía desde arriba, iba de lo general a lo particular, deductivamente.

Para la modernidad, el mundo es un ascenso, una evolución. En la Antigüedad era un descenso, un venir ‘de’ para regresar ‘a’. Ambas genealogías van en sentidos opuestos, pero sospecho que son complementarias […] Si juntamos ambas perspectivas y renunciamos a convertirlas en ídolos, no queda sino el ahora atento.»

La atención, como la más propia de nuestras herramientas. La única, quizá.

 

eSTEMos al tanto

Asistí de oyente a una reunión de una patronal de empresas convocada con la temática de incentivar las vocaciones STEM (Science, Technology, Engineering, Math) en las escuelas.

Habiendo sido yo mismo el sujeto de una voación STEM precoz (tuve la fortuna de licenciarme y doctorarme en Física), creo que puede afirmar con un cierto conocimiento de causa que los ponentes (sin duda bien intencionados) no consiguieron generar demasiado entusiasmo con sus propuestas a favor de las STEM.

Por el contrario, incluyeron argumentos que me parecen desencaminados, si no directamente peligrosos.

  1. En primer lugar, basándose en estudios que indican que las vocaciones STEM se consolidan ya hacia los 14 de años de edad, se propuso promocionar activamente las STEM a partir de los 10 años.
  2. En la práctica, las propuestas mostradas de promoción de las STEM se centraban en exclusiva en la tecnología informática, con énfasis en enseñar a programar. Ni una sola mención a las Ciencias (Física, Química, Ciencias de la vida) ni a las Matemáticas. El aprendizaje de las ciencias amplía las perspectivas mentales. La programación, por su propia naturaleza y orientación, las reduce. Promover el aprendizaje de programación como paradigma de STEM es reduccionista, demagógico y en mi opinión perjudicial.
  3. Tampoco hubo ninguna mención a la conexión necesaria entre las Ciencias (que generan respuestas) y las Humanidades (que estimulan preguntas oportunas).

Cabría además ver con reticiencia los intentos de las empresas de influir en los contenidos escolares, que se cuestionan también en The New York Times («How Silicon Valley Pushed Coding Into American Classrooms«). Más aún cuando las mismas empresas proclaman que en esta época de cambios acelerados no se puede predecir cómo serán los modelos de negocio a diez años vistos, y que muchas de las profesiones que imperarán en esa época están todavía por inventar. Si eso es así, y probablemente lo sea, no deja de resultar un punto paradójico su intento de influir en las escuelas con argumentos de futuro.

Para conversar sobre la ciencia

Dos videos que bien pueden motivar una conversación sobre ciencia.

No creo ser el único fascinado por el péndulo de Newton.  ¿Por qué se comporta como lo hace? ¿Funcionaría si cada bola colgaran de un hilo en lugar de dos? ¿Por qué funciona mejor con dos hilos? ¿Qué juego popular se basa en el mismo principio físico que el péndulo de Newton? ¿Cómo nos ayuda el péndulo a explicar la función del reposacabezas en los automóviles?

Un video sobre una variante del péndulo de Newton. ¿Por qué funciona como lo hace?

El cientificismo, no las Ciencias, amenaza a las Humanidades

Hace unos días, el Colectiu Pere Quart organizó una reunión en el Ateneo de Barcelona bajo el lema «¿Un siglo XXI sin humanidades?«, con el objetivo de debatir «el papel de las humanidades ante los grandes retos, cada vez más frenéticos, del siglo XXI«.

Desafortunadamente, pienso, la mayoría de las intervenciones podrían calificarse, en palabras de  Gregorio Luri, como de anti-anti-Humanidades. Es decir, centradas en denunciar a quienes postergan los recursos destinados a la educación en humanidades (sobre todo las administraciones) en lugar de presentar un relato en clave de futuro. Nadie lo mencionó, pero el espíritu de Lakoff Conoce tus valores y enmarca el debate«) flotaba en el ambiente.  Cuando aceptas debatir dentro del marco mental y el lenguaje de tu oponente, ya has perdido.

En relación al papel de las humanidades en la sociedad, se manifestaba entre los asistentes un malestar general por las presiones que desde el mundo empresarial se dirigen a que el sistema educativo produzca profesionales con un perfil adaptado a las necesidades de las empresas. Un síntoma de ello son las múltiples propuestas de dar un tratamiento preferencial a los estudios STEM (Science, Technology, Engineering and Mathematics).

En este contexto, Jaume Aulet, del Colectiu Pere Quart, llamó acertadamente la atención sobre cómo un buen número de disciplinas relacionadas de un modo u otro con el comportamiento humano se rebautizan como Ciencias (p.e. Ciencias Políticas, Ciencias de la Comunicación, Ciencias Económicas, Ciencias de la Educación). Se trata de un síntoma más del cientificismo, que la Wikipedia define como:

«La postura que afirma la aplicabilidad universal del método y el enfoque científico, y la idea de que la ciencia empírica constituye la cosmovisión más acreditada o la parte más valiosa del conocimiento humano, aun la exclusión de otros puntos de vista.«

La cuestión es que el cientificismo al uso es reduccionista en múltiples sentidos, por lo que representa una amenaza no sólo para las Humanidades, sino para las Ciencias en su sentido más amplio.

  • De entrada, por su postura insostenible (tema para otra entrada) de negar que exista otro conocimiento fiable que no sea el científico.
  • En segundo lugar, porque la historia muestra que muchos de los que contribuyeron a la ciencia moderna a partir de la segunda mitad del siglo XIX tenían una sólida formación filosófica. Sólo a principios del siglo XX, y principalmente desde los EEUU, la presión de los grandes capitalistas del momento propició que la orientación de las Universidades virara desde la formación de «laborious thinkers» a la de «thinking labourers».
  • Por último, porque la mayoría de los discursos sobre STEM enfatizan sobre todo la Tecnología, y más específicamente la capacidad de programar sistemas informáticos.

Me quedo con el planteamiento de Marina Garcés, que en consonancia con las tesis de sus últimos líbros, intervino apuntado a reivindicar futuros más que a recuperar el pasado. Cito de su propuesta de una «Filosofía inacabada«, que «nos interpela hoy en un mundo que muestra síntomas de agotamiento, como planeta y como modelo de sociedad»:

  • «La filosofía es un pensamiento que transforma la vida.»
  • «La filosofía es una forma de compromiso con el mundo.»
  • La filosofía no es útil ni inútil, es necesaria.»

Tengámoslo presente: el cientificismo reduccionista es una amenaza no sólo para las Humanidades, sino para la Ciencia bien entendida. Y, como consecuencia, para el futuro de la sociedad. Anticipándome a posibles descalificaciones, así lo reivindico desde mi titulación de «Doctor en Filosofía en la especialidad de Física» que el M.I.T. tuvo a bien concederme en su momento.

Continuará.

Crédito imagen: https://www.theguardian.com/books/2016/aug/24/homo-deus-by-yuval-noah-harari-review

Si no tiene capacidad de predicción, ¿es ciencia?

Imagen: Christian Schnettelker

Leo en La Vanguardia una entrevista con Jean Tirole, Premio Nobel de Economía.

Me interesa y sorprende su titular:

«Los economistas no son buenos en previsiones

Siempre había entendido que lo que caracteriza a una disciplina científica es su capacidad de predicción. Por eso no estoy seguro de a dónde apunta el profesor Tirole con su afirmación.

Una posibilidad es que insinúe que tal vez la Economía (la denominada ‘ciencia económica‘) no debería ser considerada como ciencia. Como mínimo, no en el mismo sentido que la Física, por ejemplo.

No sería el único apuntando en esa dirección. En su libelo  «La economía no existe«, Antonio Baños escribía, creo que más en serio que en broma, que la economía, “si fuera una ciencia, sería la ciencia del ya veremos”. En la misma línea, para el autor del muy recomendable «Economía para el 99% de la población»,

La economía nunca podrá ser una ciencia en el sentido en que lo son la química o la física […] en particular porque los seres humanos —a diferencia de las moléculas químicas o los objetos físicos— tienen voluntad propia y libre albedrío”.

Hay otras interpretaciones posibles. Pudiera ser que el comentario de Tirole no apuntara a la Economía, sino a la capacidad de predicción de los economistas. Un grupo social entre el que, citando a The Economist, «no abundan los intelectos humildes y pragmáticos«.

Aunque también puede ser que todo lo anterior sea una disquisición originada por la sensación creciente de que quizá nos convenga una mirada colectiva a los límites de las ciencias (no sólo de la Economía) y a las limitaciones de algunos científicos. Tema para próximas entradas.