Entradas

No degradarás en vano la inteligencia humana

«Cuando el lenguaje pierde el significado, no puede existir
ninguna forma de verdad y la mentira se convierte en norma.«

«Somos confrontados con el refinado arte de la mentira
y el torcimiento del significado de las palabras.
«

Rob Riemen («Para combatir esta era:
Consideraciones urgentes sobre fascismo y humanismo
«)

En La Vanguardia, un artículo sobre la inteligencia artificial de uno de sus colaboradores habituales, se me antoja una buena muestra del perceptivo diagnóstico de Jaron Lanier acerca de las perspectivas e intenciones sesgadas de muchos tecnófilos:

«Hacen a las personas obsoletas para que las máquinas parezcan más avanzadas.»
Jaron Lanier, «You are not a gadget«

Una manifestación visible de este sesgo es que el autor considere estimulante definir la inteligencia como «todo lo que las máquinas aún no han hecho«.  Una definición que, a medida que se avance en las capacidades de la IA, lleva a considerar como cada vez menos inteligentes a los humanos.  De ahí a degradar a los propios humanos a favor de las máquinas hay sólo un (pequeño) paso. Que algunos los explotadores de la condición humana, en alianza con algunos vendedores de máquinas sin escrúpulos, estarán encantados de dar.

Me parece pues apropiado aplicar un poco de autodefensa intelectual y de ejercicio de la dialéctica. Empezando por no aceptar las trampas del argumentario del autor.

  • Aprovecharse de la homonimia. No hay una única definición de inteligencia. Si, de entre las que propone la Wikipedia, por ejemplo, escogiéramos «la capacidad agregada o global de actuar con propósito, de pensar racionalmente y de manejar eficazmente su entorno«, difícilmente calificaríamos a los ordenadores como inteligentes. Quizá sea tarde para evitar que se utilice la misma palabra (‘inteligencia’) para referirse a capacidades diferentes; pero no lo es para tomar conciencia de las consecuencias de hacerlo; sobre todo de las mal intencionadas, que las hay.
  • La falta de rigor en el uso del lenguaje. El autor presenta la IA como «la disciplina que se encarga de dotar a los ordenadores de las capacidades cognitivas que hasta ahora eran exclusivas de los humanos«.  Si entendemos la cognición como «el proceso de conocer y comprender por medio del pensamiento, la experiencia y los sentidos», la IA no tiene capacidades cognitivas. Porque nadie comprende (hoy por hoy) cómo los algoritmos de IA más avanzados producen los resultados que producen; y mucho menos los propios algoritmos.
  • La asignación antidemocrática de responsabilidades. Para el autor, definir la inteligencia humana en negativo (lo que los ordenadores aún no son capaces de hacer) es interesante porque «nos obliga a redefinirnos a nosotros mismos«. La IA es un desarrollo impulsado por una minoría, que en principio persigue sus propios intereses. Conceder sin más el poder de que se nos obligue a redefinirnos como humanos es, en el fondo, de lo más antidemocrático.

Hay quien propone que 2019 sea el año en que se empiecen a poner límites al desarrollo y la aplicación acrítica de las tecnologías. Una tarea que incluiría desmontar con rigor la argumentación (no sé si ingenua o falaz) de escritos como el comentado. ¿Alguien se apunta?

 

Hemos de dar más valor a lo humano

Entiendo esta viñeta de El Roto en El País como una llamada a clarificar nuestros valores en la mirada al triple terreno de la tecnología, el progreso y la esencia de la naturaleza humana.

Una llamada de atención que propician titulares como éste: «Science Has Outgrown the Human Mind and Its Limited Capacities«. (La ciencia sobrepasa la mente humana y sus capacidades limitadas).

El punto de partida del articulista es que «la ciencia está en medio de una crisis de datos» y que «una estrategia prometedora es integrar máquinas e inteligencia artificial en el proceso científico», porque «las máquinas tienen más memoria y una capacidad de computación mayor que el cerebro humano.»

Sin embargo, no es para nada evidente que la memoria y la capacidad de computación sean imprescindibles para la ciencia. Como mínimo para que la Wikipedia define como «una actividad sistemática que genera y organiza el conocimiento en forma de explicaciones verificables y predicciones sobre el universo». (Un contraejemplo en una próxima entrada).

A lo que tal vez apunta el articulista es que el volumen de la producción de los científicos (o de quienes se autocalifican como científicos) ha crecido más allá de la capacidad de lectura, de asimilación y de comprensión de un individuo. Pero pudiera ser que la crisis a la que se refiere no sea consecuencia de un exceso de datos sino de una mala selección de buenas preguntas.

Sabemos que situaciones de este tipo se dan en otros ámbitos.

  • En el ámbito del Big Data, por ejemplo, se evidencia que es cada vez más importante saber qué preguntar y para qué.
  • Los medios generan un exceso de informaciones, algunas de las cuales no deberían ser noticias y otras no tendrían por qué interesarnos. Lo razonable no es intentar procesarlas todas, con o sin ayudas de inteligencia artificial. Lo sano y sensato es tener una conciencia clara de la naturaleza de las informaciones que debemos estar abiertos a sintonizar y de aquellas de las que es mejor ignorar incluso la existencia. Lo cual, corregido y aumentado, se aplica también a las redes sociales.

Por contra, por citar sólo un ejemplo, la publicación de Einstein en 1905 sobre la teoría de la relatividad no hace referencia a ningún dato experimental. No hacía falta, porque la base su investigación no era analizar datos, sino plantearse buenas preguntas. Sobre las que trabajó, dicho sea de paso, recurriendo a la creatividad y no a la computación.

No dejemos que nos engañen. La tecnología, incluyendo la inteligencia artificial y los robots, sólo proporciona respuestas. Sin desvelar a menudo la ‘pregunta poderosa(¿Para Qué?) a la que responde su existencia. Creo que está en la esencia del ser humano la capacidad y la responsabilidad de formular preguntas pertinentes. Por eso me irrita y a la vez preocupa constatar los esfuerzos cada vez más visibles de quienes se esfuerzan en menospreciar las capacidades de los humanos para (sobre)vender mejor las prestaciones de sus artefactos. No deberíamos perder esta batalla.

 

¿Conectar mi cerebro a Internet? No, gracias.

En un artículo en The Economist se preguntan si «tenemos los humanos que asumir que necesitaremos implantes en el cerebro para seguir siendo relevantes».

La pregunta surge al hilo de la noticia de que Elon Musk, el CEO de Tesla e impulsor de otras empresas de tecnología avanzada, ha anunciado la formación de Neuralink,  una nueva empresa que tendría como primer objetivo producir dispositivos invasivos para diagnosticar o tratar enfermedades neurológicas.

Parece, sin embargo, que la intención de la empresa, o cuanto menos de su promotor, apunta más lejos. Musk ha manifestado en una entrevista que los humanos corren el riesgo de acabar siendo tratados como mascotas por artefactos dotados de inteligencia artificial. Propone como una posible solución añadir artificialmente al cerebro una capa digital que, conectada a Internet, multiplicaría la memoria y la capacidad de computación del cerebro, y por tanto nuestra inteligencia.

Una perspectiva que la comunicadora de la Singularity University glosa de este modo:

«Podríamos multiplicar por mil nuestra inteligencia e imaginación. Sería una disrupción radical en cómo pensamos, sentimos y comunicarmos. Al transferir nuestros pensamientos y sentimientos directamente a otros cerebros podríamos redefinir la socialización y la intimidad de los humanos. En último término, subiendo nuestro Yo completo a las máquinas nos permitiría transcender nuestra piel biológica y convertirnos en digitalmente inmortales.»

Dos objeciones. La primera es filosófica. Afirmaciones de este tipo dejan traslucir una concepción materialista, o informacionalista si se prefiere, del ser humano. Pero no está nada claro que esta concepción tenga ninguna base científica. Me parece más convincente la argumentación de nuestra naturaleza espiritual que presenta Markus Gabriel en («Yo no soy mi cerebro«)

La segunda objeción es estratégica. ¿Es inevitable que hayamos de competir con artefactos dotados de inteligencia artificial? ¿Cuál es el sentido de decidir crear esos artefactos para que compitan con nosotros? ¿No merecería ese asunto algún tipo de dictamen democrático?

Además, incluso si era competencia fuera inevitable, las normas elementales de la estrategia dictan que nunca hay que escoger el terreno más favorable para el adversario. Si los artefactos nos superan en inteligencia digital, por llamarla de algún modo, tendrá sentido retarles en ámbitos donde otro tipo de inteligencia sea la determinante. Volvernos más digitales sería sólo un modo de ser hacernos más similares a ellos, y por tanto más vulnerables.

Conmigo, desde luego, que no cuenten.

Imagen: Singularity University

Yo no soy mi cerebro y mi cerebro no es como un ordenador

“We see the world not as it is, but as we are──or, as we are conditioned to see it.” (Stephen Covey)

Una consecuencia de los innegables avances en la (mal) llamada inteligencia artificial es propiciar la reflexión acerca de la mente humana, de la naturaleza de la inteligencia natural y del rol del cerebro en la manifestación de esta inteligencia.

Desafortunadamente, mucho de lo que se publica al respecto evidencia la enormidad de la brecha que existe entre la visión cinetífico-materialista y la filosófico-humanista.

Por ejemplo, Javier Sampedro se refiere en El País a «la evidencia aplastante de que nuestra mente no es más que una colección de átomos.» No da pistas de esa evidencia, ni ofrece tampoco argumentos convincentes de cómo “una simple colección de átomos” es capaz de concebir avances científicos como, por ejemplo, la mecánica cuántica.

Menos aún podrá ese articulista argumentar cómo la simple colección de átomos que es su mente puede concebir que ella misma no es más que una simple colección de átomos. En cuyo caso ya no es tan simple, porque es una colección que tiene además alguna conciencia de su propia naturaleza.

El artículo «Is the Brain More Powerful Than We Thought?» proporciona otro ejemplo interesante. Según investigaciones recientes en UCLA, podría ser que las dendritas tuvieran en el funcionamiento del cerebro un papel más importante del hasta ahora contemplado. La consecuencia sería que «la capacidad de computación del cerebro sería 100 veces mayor de lo que habíamos pensado.»

Mi intuición es que a lo que realmente apunta esta investigación es a la posibilidad de que el ‘marco  mental‘ que asimila el cerebro a un ordenador sea equivocado. Posiblemente también lo sean los intentos de utilizar ordenadores para entender el funcionamiento del cerebro (más sobre éso en una próxima entrada). Quizá la realidad exceda a las capacidades de la computación, y lo que sucede es que, como dice el aforismo, cuando uno sólo tiene un martillo todo lo que ve le parecen clavos.

Una posibilidad a la que apunta desde el lado de la filosofía el notable libro de Markus Gabriel, del que reproduzco la portada. Una lectura que pienso debería ser obligada para cualquiera interesado en salvar la brecha entre ciencia y humanidades a la que me refería al principio. Me limitaré a reproducir algunos de sus puntos de partida, que en el resto del libro se desarrollan y fundamentan :

  • «La mente humana no es un fenómeno puramente biológico.»
  • «Somos seres espirituales que no pueden ser plenamente entendidos si se intenta basar nuestra imagen humana en el modelo de las ciencias naturales.»
  • «Los procesos hasta ahora solo esbozados para delegar nuestro autoconocimiento a las disciplinas científicas de nueva creación son ideológicos, y por tanto fantasías equivocadas.»

Una obra ambiciosa y atrevida, que muestra la diferencia entre un enfoque filosófico que aspira a entender y el de las ciencias naturales que se limitan a explicar.