Entradas

No degradarás en vano la inteligencia humana

«Cuando el lenguaje pierde el significado, no puede existir
ninguna forma de verdad y la mentira se convierte en norma.«

«Somos confrontados con el refinado arte de la mentira
y el torcimiento del significado de las palabras.
«

Rob Riemen («Para combatir esta era:
Consideraciones urgentes sobre fascismo y humanismo
«)

En La Vanguardia, un artículo sobre la inteligencia artificial de uno de sus colaboradores habituales, se me antoja una buena muestra del perceptivo diagnóstico de Jaron Lanier acerca de las perspectivas e intenciones sesgadas de muchos tecnófilos:

«Hacen a las personas obsoletas para que las máquinas parezcan más avanzadas.»
Jaron Lanier, «You are not a gadget«

Una manifestación visible de este sesgo es que el autor considere estimulante definir la inteligencia como «todo lo que las máquinas aún no han hecho«.  Una definición que, a medida que se avance en las capacidades de la IA, lleva a considerar como cada vez menos inteligentes a los humanos.  De ahí a degradar a los propios humanos a favor de las máquinas hay sólo un (pequeño) paso. Que algunos los explotadores de la condición humana, en alianza con algunos vendedores de máquinas sin escrúpulos, estarán encantados de dar.

Me parece pues apropiado aplicar un poco de autodefensa intelectual y de ejercicio de la dialéctica. Empezando por no aceptar las trampas del argumentario del autor.

  • Aprovecharse de la homonimia. No hay una única definición de inteligencia. Si, de entre las que propone la Wikipedia, por ejemplo, escogiéramos «la capacidad agregada o global de actuar con propósito, de pensar racionalmente y de manejar eficazmente su entorno«, difícilmente calificaríamos a los ordenadores como inteligentes. Quizá sea tarde para evitar que se utilice la misma palabra (‘inteligencia’) para referirse a capacidades diferentes; pero no lo es para tomar conciencia de las consecuencias de hacerlo; sobre todo de las mal intencionadas, que las hay.
  • La falta de rigor en el uso del lenguaje. El autor presenta la IA como «la disciplina que se encarga de dotar a los ordenadores de las capacidades cognitivas que hasta ahora eran exclusivas de los humanos«.  Si entendemos la cognición como «el proceso de conocer y comprender por medio del pensamiento, la experiencia y los sentidos», la IA no tiene capacidades cognitivas. Porque nadie comprende (hoy por hoy) cómo los algoritmos de IA más avanzados producen los resultados que producen; y mucho menos los propios algoritmos.
  • La asignación antidemocrática de responsabilidades. Para el autor, definir la inteligencia humana en negativo (lo que los ordenadores aún no son capaces de hacer) es interesante porque «nos obliga a redefinirnos a nosotros mismos«. La IA es un desarrollo impulsado por una minoría, que en principio persigue sus propios intereses. Conceder sin más el poder de que se nos obligue a redefinirnos como humanos es, en el fondo, de lo más antidemocrático.

Hay quien propone que 2019 sea el año en que se empiecen a poner límites al desarrollo y la aplicación acrítica de las tecnologías. Una tarea que incluiría desmontar con rigor la argumentación (no sé si ingenua o falaz) de escritos como el comentado. ¿Alguien se apunta?

 

El mayor peligro de la Inteligencia Artificial

Getty Images

Los medios se han hecho eco del sonoro enfrentamiento público entre Elon Musk (CEO de Tesla) y Mark Zuckerberg (CEO de Facebook) acerca de los peligros (o no) de la Inteligencia Artificial (IA).

Musk sostiene que (*):

«La IA es un riesgo central para la existencia de la civilización humana.»

La respuesta de Zuckerberg:

«Soy optimista. Y no entiendo a la gente que es negativa e intenta inventar escenarios apocalípticos. Creo que es bastante irresponsable

Musk replica en Twitter:

«He hablado con Mark sobre esto. Su entendimiento sobre el tema es limitado.»

Por debajo de la batalla de la batalla entre dos egos ‘king size’ subyace una cuestión más de fondo: la de si conviene o no regular ya el desarrollo de la IA.

Musk aboga por una regulación proactiva:

La IA es uno de los raros casos en los cuales creo que necesitamos una regulación proactiva en lugar de una reactiva […] Cuando se produzca una regulación reactiva, será demasiado tarde.»

Zuckerberg discrepa, apuntando implícitamente que la regulación retrasaría el desarrollo de la tecnología.

«La tecnología puede siempre utilizarse para bien o para mal, y uno ha de ser cuidadoso acerca de lo que construye, cómo lo construye y cómo se utilizará […] Pero discrepo de la gente que aboga por ralentizar el proceso de crear IA.»

Hay un dato que quizá ayude a entender la polémica. Musk está acostumbrado a que sus empresas actúen en mercados fuertemente regulados, como el del automóvil. Facebook aprovecha carencias en la regulación (p.e. sobre privacidad) para extender su negocio (no es el único; empresas como Uber o Airbnb hacen lo mismo en otros ámbitos). ¿Defendería Zuckerberg que Tesla se saltara las reglamentaciones sobre seguridad para desarrollar más rápidamente el mercado de sus automóviles? No lo creo.

Subyace por tanto la cuestión de los objetivos y prácticas de la regulación, especialmente la de las nuevas tecnologías. Una cuestión repleta de criterios y matices, que de ningún modo se puede despachar como lo hace uno de nuestros más ilustres ilustrados-TIC‘:

«Reclamar regulación sobre una tecnología o conjunto de tecnologías antes de que se desarrollen es un problema [porque] muy pocas veces se desarrolla de la manera adecuada, y tiende a basarse en la restricción de posibilidades […] Esperemos que esas peticiones de regulación no lleguen a ningún político temeroso e inspirado. Y mientras tanto, sigamos trabajando.«

Por supuesto que, como en el ejemplo de los automóviles que apuntaba antes, la regulación ha de basarse en la restricción de posibilidades. Porque tenemos el derecho a reclamar que el respeto a criterios éticos y sociales sea un requisito que se aplique previamente al desarrollo de una tecnología. La eficacia limitada de muchos organismos reguladores no ha de ser una excusa para obviar la necesidad de una regulación proactiva, sino en todo caso para diseñar e implantar mejores regulaciones y organismos reguladores.

Una explicación del impulso que está teniendo el desarrollo de la IA es que será una herramienta de acumulación de riqueza y poder, seguramente en mayor grado que otras tecnologías. El mayor riesgo realThe Real Threat of Artificial Intelligence«) es que esta acumulación genere desigualdades y desequilibrios imposibles de gestionar a posteriori.

«Los productos de IA […] tienen el potencial de transformar radicalmente nuestro mundo, y no sólo para mejor […] Recompondrán el significado del trabajo y la creación de riqueza, llevando a desigualdades económicas sin precedentes e incluso alterando el equilibrio global de poderes.

A medio plazo, por ejemplo, la IA tensionará aún más el pacto social entre capital y trabajo (cuya regulación ya es conflictiva), eliminando los trabajos de muchos, pero sin hacerse cargo de la factura de los daños colaterales. Sabemos que la Revolución Industrial generó dislocaciones sociales del mismo tipo, que costó varias décadas solucionar. Una regulación proactiva apropiada debería evitar que esta historia se repita, esta vez en mayor escala. Es una cuestión de ética y de responsabilidad social.

(*) Video, a partir del minuto 48.