Entradas

Vemos según miramos, también sobre la IA

Se pronostica, seguro que con buen criterio, que «es probable que no exista ahora mismo un video juego que un sistema de inteligencia artificial como OpenAIFive no pueda dominar a un nivel superior al de la capacidad de los humanos.»

Se trata de un pronóstico que admite más de una interpretación. O, si se prefiere, más de un juicio de valor.

Se trata, de entrada, de un reconocimiento del espectacular aumento de las capacidades de los sistemas de inteligencia artificial. Que, si se toma en cuenta el contexto del artículo de donde se ha extraído la cita, se hace con una valoración positiva.

Con todo, es posible que ese reconocimiento deba matizarse cuando se manifiesta que el aprendizaje de este sistema de IA requirió el equivalente de 45.000 años de juego. Algo que el sistema, según aseguran sus creadores, llevó a cabo sin aburrirse.

Por tanto, dado que ningún ser humano, ni tampoco los mejores equipos de juegadores, está en condiciones de hacer una inversión de tiempo ni remotamente similar, una primera conclusión razonable sería que, con todas sus capacidades, el sistema de IA no puede duplicar una inteligencia de eficacia similar al de los seres humanos.

«Uau – dice uno de los personajes de la viñeta de The New Yorker – esta versión es un modo mucho más inmersivo de dilapidar nuestra juventud«.

Propongo una segunda concusión, entiendo que también razonable. Si las capacidades de inteligencia humana que se utilizan para dominar un juego de ordenador complejo son emulables (aunque no duplicables) por un sistema informático, es probable que esas capacidades no sean las más distintivas de la inteligencia humana. A menos que, como hacen algunos, se acepte la hipótesis de que la inteligencia humana en su conjunto es algorítmica y por tanto duplicable por un sistema informático avanzado. Algo que en este momento carece de base científica, por lo que cabe calificarlo como un acto de fe.

«Si se aumenta lo que es, surgirán estas y aquellas desgracias, y, por lo tanto, debe considerársele como al huevo de la serpiente, que, incubado, llegaría a ser dañino, como todos los de su especie, por lo que es fuerza matarlo en el cascarón«. (W. Shakespeare, «Julio César»)

Si se acepta esta premisa, valdría la pena que, individualmente y como sociedad en general, nos pusiéramos como objetivo identificar, cultivar, desarrollar y poner en práctica capacidades de inteligencia y conocimiento que nos diferencien de las potenciales de los sistemas informáticos. De lo contrario, como simples humanos tenemos el riesgo de que los sistemas de IA sean como el huevo de una serpiente que cuando eclosione nos envenene y mate. Huevos de serpiente que hoy por hoy alguien incuba, como cabe temer por experiencia y precaución, más en su propio beneficio que en el nuestro.

No degradarás en vano la inteligencia humana

«Cuando el lenguaje pierde el significado, no puede existir
ninguna forma de verdad y la mentira se convierte en norma.«

«Somos confrontados con el refinado arte de la mentira
y el torcimiento del significado de las palabras.
«

Rob Riemen («Para combatir esta era:
Consideraciones urgentes sobre fascismo y humanismo
«)

En La Vanguardia, un artículo sobre la inteligencia artificial de uno de sus colaboradores habituales, se me antoja una buena muestra del perceptivo diagnóstico de Jaron Lanier acerca de las perspectivas e intenciones sesgadas de muchos tecnófilos:

«Hacen a las personas obsoletas para que las máquinas parezcan más avanzadas.»
Jaron Lanier, «You are not a gadget«

Una manifestación visible de este sesgo es que el autor considere estimulante definir la inteligencia como «todo lo que las máquinas aún no han hecho«.  Una definición que, a medida que se avance en las capacidades de la IA, lleva a considerar como cada vez menos inteligentes a los humanos.  De ahí a degradar a los propios humanos a favor de las máquinas hay sólo un (pequeño) paso. Que algunos los explotadores de la condición humana, en alianza con algunos vendedores de máquinas sin escrúpulos, estarán encantados de dar.

Me parece pues apropiado aplicar un poco de autodefensa intelectual y de ejercicio de la dialéctica. Empezando por no aceptar las trampas del argumentario del autor.

  • Aprovecharse de la homonimia. No hay una única definición de inteligencia. Si, de entre las que propone la Wikipedia, por ejemplo, escogiéramos «la capacidad agregada o global de actuar con propósito, de pensar racionalmente y de manejar eficazmente su entorno«, difícilmente calificaríamos a los ordenadores como inteligentes. Quizá sea tarde para evitar que se utilice la misma palabra (‘inteligencia’) para referirse a capacidades diferentes; pero no lo es para tomar conciencia de las consecuencias de hacerlo; sobre todo de las mal intencionadas, que las hay.
  • La falta de rigor en el uso del lenguaje. El autor presenta la IA como «la disciplina que se encarga de dotar a los ordenadores de las capacidades cognitivas que hasta ahora eran exclusivas de los humanos«.  Si entendemos la cognición como «el proceso de conocer y comprender por medio del pensamiento, la experiencia y los sentidos», la IA no tiene capacidades cognitivas. Porque nadie comprende (hoy por hoy) cómo los algoritmos de IA más avanzados producen los resultados que producen; y mucho menos los propios algoritmos.
  • La asignación antidemocrática de responsabilidades. Para el autor, definir la inteligencia humana en negativo (lo que los ordenadores aún no son capaces de hacer) es interesante porque «nos obliga a redefinirnos a nosotros mismos«. La IA es un desarrollo impulsado por una minoría, que en principio persigue sus propios intereses. Conceder sin más el poder de que se nos obligue a redefinirnos como humanos es, en el fondo, de lo más antidemocrático.

Hay quien propone que 2019 sea el año en que se empiecen a poner límites al desarrollo y la aplicación acrítica de las tecnologías. Una tarea que incluiría desmontar con rigor la argumentación (no sé si ingenua o falaz) de escritos como el comentado. ¿Alguien se apunta?

 

Se esfuerzan más en mejorar a los robots que a los humanos

He invertido unas cuantas horas en la lectura de Vida 3.0, el último libro de Max Tegmark, un físico teórico de MIT.

Me atrajo sobre todo conocer mejor la visión de un científico (me doctoré en Física enel MIT en una vida anterior) sobre el tema del subtítulo: «¿Qué significa ser humano en la era de la inteligencia artificial?»

El autor no proporciona una respuesta clara, dibujando hasta nueve escenarios, en algunos de los cuales los seres dotados artificialmente de una Inteligencia Artificial General convierten a los humanos en esclavos o simplemente los eliminan por redundantes e inútiles.

Más que entrar en un debate sobre estos escenarios, que sería por fuerza especulativo, me parece más importante abordar directamente dos de las hipótesis implícitas del autor, que en ningún momento cuestiona:

  • El desarrollo de una Inteligencia Artificial cada vez más avanzada es en la práctica inevitable.
  • Los seres (transhumanos o puramente robóticos) dotados de esas inteligencias serán superiores a los humanos.

Sobre la primera de estas cuestiones, el propio Tegmark, entrevistado en El País, afirma que:

«Hay una gran presión económica para hacer que los humanos sean obsoletos.»

Una afirmación que invalida su calificación de los científicos que, como él mismo, impulsan el desarrollo acelerado de la IA:

«Muchos de los líderes tecnológicos que están construyendo la IA son muy idealistas.»

Porque, o bien son tan ingenuos que no desconocen la naturaleza de los intereses económicos que financian sus trabajos, o bien son conscientes de ello, pero no les importa, en cuyo caso son cómplices de los mismos.

No pretendo aquí añadir nada al debate sobre los objetivos y las batallas de riqueza y poder que subyacen al impulso visible en el desarrollo rápido de la IA, que se aborda ya en las publicaciones económicas convencionales, como en este artículo de The Economist.

Me interesa más señalar que la prioridad y la atención que se manifiesta en el objetivo de aumentar (exponencialmente) las capacidades de la IA no tiene un paralelo equivalente en el aumento de las capacidades de los humanos. El énfasis, en creadores de opinión influyentes como el World Economic Forum y las escuelas de negocios, se pone como mucho en cómo adaptarse o cómo sobrevivir en una sociedad dominada por esas nuevas tecnologías; o sobre cómo proteger a los que (inevitablemente) resultarán perjudicados.

(Para ser riguroso, tendría que haber escrito «en una sociedad dominada por quienes acaben dominando esas tecnologías«).

Para tratar esta cuestión habrá que adentrarse en el terreno de las políticas, o en la construcción de instituciones capaces de diseñar y desarrollar políticas a la altura del reto. Recordando la recomendación que Georges Lakoff hizo hace ya un tiempo en otro contexto: «Conoce tus valores y enmarca el debate«.

Porque, a la luz de lo que está emergiendo alrededor de los efectos colaterales de Facebook y similares, no podemos aceptar el punto de vista de quienes sostienen que «El problema no son las redes sociales… es la naturaleza humana«, cuando precisamente el modo en que estas redes sociales se desarrollan es explotando de modo consciente flaquezas humanas para acumular dinero y poder. Dando malignamente por sentado un concepto de progreso que da prioridad al desarrollo de las redes que a la mejora de la naturaleza humana.

Porque aceptar el debate en los términos que lo plantean los tecnófilos y quienes les financian es perder la batalla de lo humano ya antes de empezar.

¿Por dónde empezar, preguntará quizá alguno? Pues por reflexiones de obras como «Nueva ilustración radical» o «Esperanza en la oscuridad«, por poner sólo dos ejemplos.

¿Quién se apuntaría alguien a un club de lectura sobre estos temas?

Viñetas:

 

 

 

 

El cerebro no piensa; es sólo un instrumento

Emerge con intensidad creciente en estos tiempos que nos ha tocado vivir una admiración y un respeto mayor por la (mal llamada) inteligencia artificial (digital, algorítmica) que por la inteligencia natural.

No creo que sea una casualidad; casi nada lo es. Si se nos informa bien, el 67% de CEOs estadounidenses encuestados creen que el futuro de sus empresas reside en la tecnología, y no en las personas. Una sorpresa sólo relativa. Al fin y al cabo, las empresas constituye reflejan en sus balances el valor de los activos tecnológicos, pero no el de los recursos humanos.

Seguro que los fabricantes de tecnologías están encantados con este criterio de valoración. Al fin y al cabo, como avisó hace años Jaron Lanier, hay a quienes no les importa hacer que las personas parezcan obsoletas si ello supone que sus máquinas serán más y mejor valoradas.

Resulta por ello refrescante leer que una médico respetada sostienga en una entrevista en La Vanguardia que, en base a su experiencia con pacientes:

«La consciencia no es un producto de nuestro cerebro sino que utiliza a nuestro cerebro.«

Un proposición que a algunos nos parece verosímil, por mucho que no encaje con los enfoques mecanicistas que predominan en los ámbitos científicos.

Pienso por analogía. Quien en este video produce la música maravillosa del Adagio del concierto KV 622 de Mozart no es el clarinete, sino Martin Fröst. La música vive en el intérprete antes de que este la insufle en su instrumento.

Tiraría de este hilo para apostar que ningún neurocientífico encontrará la música de Mozart en el cerebro de Martin Fröst ni el de ningún otro intérprete mientras toca esa música, ni cualquier otra. Podríamos pues preguntarnos en dónde reside, más allá de las partituras, la esencia de ese precioso Adagio que Mozart compuso.  Aunque, persistiendo en la misma línea de pensamiento, quizá no sea descabellado imaginar que Mozart no lo compuso realmente, sino que tuvo el privilegio de que le escogieran para escribirlo al dictado.

Inocular el virus Bartleby a según qué ciencia

Dedico parte de mis lecturas veraniegas a una inmersión en las novelas antiguas de Enrique Vila-Matas, incluyendo «Bartebly y compañía«.

El protagonista de esta novela confiesa su empeño en rastrear el «amplio espectro del síndrome de Bartley en la literatura«, un síndrome cuya manifestación es

«la pulsión negativa o la atracción por la nada que hace que ciertos creadores, aún teniendo una conciencia literaria muy exigente (o quizá precisamente por eso), no lleguen a escribir nunca; o bien escriban uno o dos libros y luego renuncien a la escritura; o bien, tras poner en marcha sin problemas una obra en progreso, queden, un día, literalmente paralizados para siempre.»

Lo que me lleva a mencionar el síndrome Bartebly es una entrevista en El País Ideas (12/8/2018) con Max Tegmark, un físico teórico de MIT, a raíz de la publicación de su libro («Vida 3.0: Ser humano en la era de la inteligencia Artificial«). Si hubiera tenido en la memoria la novela de Vila-Matas cuando leí («Our Mathematical Universe«), una obra anterior de Tegmark, es posible que no hubiera podido resistirme al malévolo deseo de que fuera de algún modo, como escribiente, afectado por el síndrome Bartleby y se centrara en publicar sólo para la comunidad científica. Ahora sería aún más radical.

En la entrevista para El País, Tegmark manifiesta esta preocupación:

«nos arriesgamos a perder completamente el control del planeta a manos de un pequeño grupo de gente que desarrolle la Inteligencia Artificial».

El motivo, según su punto de vista, es que:

«Muchos de los líderes tecnológicos que están construyendo la IA son muy idealistas, y quieren que esto sea bueno para todos. Pero la principal motivación de las compañías que están desarrollando esta tecnología es ganar dinero .»

Su propuesta:

«Tenemos que ser proactivos. Es muy importante que no dejemos las discusiones sobre la inteligencia artificial sólo en manos de gente experta en tecnología como yo. Psicólogos, sociólogos o economistas deben participar en la conversación.«

Una dificultad obvia es la muy alta probabilidad de que quienes paguen a esos psicólogos, sociólogos o economistas sean las mismas empresas que financian la investigación de los científicos «idealistas», y que lo hagan con el mismo objetivo prioritario de ganar dinero.

Inspirado por Vila-Matas, se me ocurre que una alternativa, quizá igualmente improbable pero por qué no, sería inocular un virus Bartleby a los científicos que, desde un idealismo simplista, cuando no socialmente irresponsable, empujan el desarrollo de unas tecnologías cuyo control social ellos mismos reconocen como problemático. Sería bonito, quizá demasiado bonito, que el propio Tegmark fuera el primero en dar ejemplo.

Pre-juicios de la tecnociencia

Entrevistan en El Mundo a un neurobiólogo español de prestigio.

Afirma categóricamente que:

(1) La mente está en el cerebro. Todo lo que somos, la esencia del individuo, lo que pensamos, lo que nos define como personas, todo, está en el cerebro.

(2) El cerebro genera la mente. Si entendemos el cerebro, entendemos la mente. Si podemos leer la actividad del cerebro, podemos leer la mente.

(3) Imagínate que podemos leer la mente y podemos manipular la actividad del cerebro, entonces podemos manipular la mente.

Me resisto a darle la razón. En parte porque entiendo que su afirmación no es el resultado de una investigación, sino de un pre-juicio ‘a priori’. Porque intuyo como mucho más verdadera la perspectiva del filósofo Markus Gabriel, que comentaba en una entrada anterior:

  • “La mente humana no es un fenómeno puramente biológico.”
  • “Somos seres espirituales que no pueden ser plenamente entendidos si se intenta basar nuestra imagen humana en el modelo de las ciencias naturales.”

De otra parte, ¿qué pensaríamos de una afirmación como la siguiente?


«Imaginemos que nos dan un ordenador que ejecuta un software complejo y especializado. Por ejemplo, uno de esos nuevos programas de inteligencia artificial. La totalidad del programa y de los datos que maneja residen en el hardware del ordenador. El hardware es pues la esencia. Si podemos leer todos los bits almacenados y monitorizar todo el tráfico electrónico cuando el ordenador está funcionando, entenderemos todo lo que hay que entender.

No sólo eso, modificando los bits y quizá algún circuito podemos corregir posibles errores e incluso construir versiones mejoradas de ese ordenador.»


Creo evidente que cualquiera con un mínimo entendimiento sobre ordenadores y computación desaconsejaría por poco práctica una propuesta de este tipo. Porque:

  • Es prácticamente imposible, o como mínimo extremadamente laborioso,  hacer la ingeniería inversa de un programa en binario de una cierta para obtener el código fuente original.
  • Incluso si se tiene acceso al código fuente, muchos programas son realmente difíciles de entender, incluso por su autor cuando ha pasado un tiempo, a menos que haya una buena documentación de diseño y suficientes comentarios, lo que en la práctica pocas veces ocurre.
  • No es posible por el momento entender el razonamiento en base al cual toman decisiones los programas modernos basados en ‘deep learning‘ o similares; incluso los expertos los ven como una caja negra. En parte, regún entiendo, porque estos programas no razonan, sino que calculan a partir de matrices numéricas de gran tamaño.

Ya puestos en plan escéptico, añadiría que:

  • Hay evidencias de que algunos de los programas utilizados para analizar el funcionamiento del cerebro han resultado no ser fiables.
  • Parece ser que intentos de aplicar esos programas para entender la estructura y el funcionamiento de un ordenador sencillo han tenido, por así decirlo, resultados por debajo de lo esperado.

Mis conclusiones:

(1) El cerebro es un instrumento del pensar. Pero para entender el pensar habrá que mirar más allá del cerebro. Igual que para entender el tiempo hay mejores maneras que investigar cómo funciona uno de esos relojes con muchas complicaciones en los que los relojeros suizos son tan expertos.

(2) El problema con algunos científicos no es que sean ignorantes; es que, como ocurre a tantas personas, son más ignorantes de lo que se creen.

(3) Sobre las posibles reacciones a una entrada como ésta, recordar la advertencia de Bertrand Rusell: «Las opiniones más apasionadas son siempre aquellas para las que no existe fundamento«.

Dicho ésto, me encantará participar en un debate sobre los límites de la ciencia y este tipo de cuestiones.

No es la inteligencia artificial lo que da miedo

El suplemento Ideas de El País de 18/3/2018, dedicado en buena parte a la inteligencia artificial, es un ejemplo de la promoción acrítica de una versión sesgada del progreso tecnológico y su impacto social (ya desde el imperativo «debemos» del titular principal).

(En el interior (de la edición papel), otro titular Lo que los coches pueden enseñarnos sobre los robots«) utiliza un léxico asimismo discutible, dado que es obvio que los coches no van a enseñarnos nada).

«Los tribunales y la sociedad en general tardaron un tiempo en entender tanto los aspectos técnicos del coche, como los problemas que planteaba el tráfico.»

Sí podemos aprender algo de la historia social de la introducción del automóvil, y en particular de su regulación. Como bien señala la articulista, las normas y restricciones sobre el uso del automóvil no se centraron inicialmente tanto en los aspectos técnicos de los vehículos como en los cambios en ordenación del espacio público tras la aparición de ese nuevo artefacto. Algo que en su momento incluyó innovaciones como carriles, señales de tráfico, zonas de aparcamiento en la calle, semáforos y pasos de peatones.

Ahora bien, cuando observamos el impacto global del automóvil en la ciudad, en aspectos como la proporción de espacio público que ocupa o su incidencia en la contaminación, ¿podemos estar igualmente satisfechos de cómo se ha regulado socialmente la proliferación del automóvil privado? ¿Qué hubiera pasado si, por ejemplo, se hubiera dado preferencia desde un primer momento al desarrollo del transporte público? Imagino que quien lo intentara encontraría una enorme presión en contra de los emprendedores de la industria del automóvil y de sus inversores, así como la reivindicación de los derechos individuales de los (inicialmente privilegiados) primeros usuarios del automóvil.

«Las tecnologías alternativas no son las que determinan cambios en las relaciones sociales; son más bien el reflejo de esos cambios.» (David Noble, «Forces of Production: A Social History of Industrial Automation»).

Pero sigamos a la articulista y aceptemos que la historia (y las consecuencias) de la introducción del automóvil pueden ayudarnos a pensar sobre la introducción (y las consecuencias) de la inteligencia artificial. Una primera conclusión sería entonces que, si a algo tenemos que temer, no es a la inteligencia artificial (tampoco tenemos miedo de los motores de explosión), sino a las motivaciones, la ética y la responsabilidad social las personas y grupos sociales que las diseñan, financian, despliegan y promueven.

No podemos a este respecto coincidir con la articulista cuando propone que:

«Son los ingenieros, los científicos de datos, así como los departamentos de marketing y los Gobiernos que usen o tengan que regular dichas tecnologías, quienes deben comprender la dimensión social y ética de la inteligencia artificial.«

No podemos hacerlo, porque precisamente historias como la del automóvil (o más recientemente la de la Web 2.0 y las redes sociales, por poner sólo un ejemplo) no conducen precisamente a confiar en exclusiva a esos colectivos la comprensión de las dimensiones éticas y sociales de las tecnologías. (Ver el artículo sobre robots sexuales en el mismo suplemento).

«Me parece asombroso que los tecnoevangelistas hagan alarde de que puede ofrecer una suerte de eterno progreso a la humanidad; sin embargo, tan pronto se les confronta con cuestiones éticas caen en el determinismo y el fatalismo.» (Rob Riemen, «Para combatir esta era«)

Otro artículo en el mismo suplemento, también sobre la inteligencia artificial, concluye que:

«Es necesario aumentar la conciencia sobre los límites de la IA, así como actuar de forma colectiva para garantizar que se utilice en beneficio del bien común con seguridad, fiabilidad y responsabilidad.»

Una conclusión bien intencionada, razonada y razonable. Si no fuera porque los recursos destinados a esa actuación colectiva para garantizar el bien común son mucho menores que los que utilizan quienes no consideran el bien común como su prioridad ni su responsabilidad.

¿Hacia una humanidad subconsciente?

«Cuando el lenguaje pierde el significado, no puede existir ninguna forma de verdad y la mentira se convierte en norma.» (Rob Riemen, «Para combatir esta era«).

«Sentimos que aún cuando todas las posibles cuestiones de la ciencia hayan recibido respuesta, nuestros problemas vitales todavía no se han rozado en lo más mínimo
(Wittgenstein, «Tractatus»,   6-52)

José M. Lassalle, que como secretario de Estado de la Sociedad de la Información y Agenda Digital en el Gobierno del Estado deber saber de qué habla, afirma en la prensa («¿Fake Humans?«) que:

«Nos acercamos a los umbrales de un tiempo histórico que nos hará definitivamente digitales. De hecho, ya casi lo somos […]. El año 2020 está ahí. Con él, el despliegue de unas tecnologías habilitadoras que, sin posibilidad de retorno, cambiarán los imaginarios culturales, los relatos políticos y los paradigmas económicos del planeta.»

Lo hace con absoluta seguridad, con ese contundente «sin posiblidad de retorno». Quizá porque reconoce (o tal vez conoce de primera mano) el poder de las fuerzas (ocultas para la mayoría) que impulsan esta transformación. Unas fuerzas tan poderosas que, según afirma con la misma seguridad, configuran

«Un ecosistema que nos habrá hecho rebasar el dintel de la posthumanidad sin consultarnos, y que hoy en día se está modelando sin pensamiento crítico ni pacto social y político que establezca derechos y obligaciones entre los actores que participan en él.»

Lassalle intuye que más allá de ese ‘dintel de la posthumanidad’  se configurará un territorio para ‘fake humans’. Si bien no entra a definir en qué los fake se diferenciarían de los ‘truly humans’, parace sumarse al bando de quienes intuyen que se trataría de una algún tipo de humanidad menos consciente.

Las máquinas no piensan: calculan. Observamos que se promueven unas tecnologías de la información que mecanizan la conciencia, al apelar a los automatismos del subconsciente (el Sistema 1 de Kahneman), desviando la atención de la reflexión y el pensamiento consciente. Incluso Arianna Huffington, que ganó su fama y fortuna en Internet, avisa que:

«La tecnología es estupenda para proporcionarnos lo que creemos que queremos, pero no necesariamente lo que necesitamos. En la economía de la atención, nuestra atención es monetizable y la sofisticación de las técnicas utilizadas para socavarla están sobrepasando a ritmo exponencial nuestra capacidad para protegerla.»

Promueven también una versión de la tecnología cognitiva y la inteligencia artificial que tienden a mecanizar nuestros procesos de pensamiento. A este respecto, Tim Cook, el CEO de Apple, expresa  que:

«No me preocupan que las máquinas puedan pensar como las personas. Me preocupan las personas que piensen como máquinas.»

Antes de plantear qué hacer al respecto para protegernos de esos riesgos o, aún mejor, para combatir sus causas, conviene quizá considerar que la tendencia de fondo es incluso anterior a la invención de Internet. ¿Cómo se explica si no, la reflexión de Erich Fromm en «La revolución de la esperanza« (1968):

«Un nuevo espectro anda al acecho entre nosotro: una sociedad completamente mecanizada, dedicada a la máxima producción y al máximo consumo materiales y dirigida por máquinas computadoras. En el consiguiente proceso social, el hombre mismo, bien alimentado y divertido, aunque pasivo, apagado y poco sentimental, está siendo transformado en una parte de la maquinaria total. Con la victoria de la nueva sociedad, el individualismo y la privacidad desaparecerán, los sentimientos hacia los demás serán dirigidos por condicionamiento psicológico y otros expedientes de igual índole, o por drogas, que también proporcionarán una nueva clase de experiencia introspectiva«.

Algo así como en esta escena de Wall-E. Continuará.

El mayor peligro de la Inteligencia Artificial

Getty Images

Los medios se han hecho eco del sonoro enfrentamiento público entre Elon Musk (CEO de Tesla) y Mark Zuckerberg (CEO de Facebook) acerca de los peligros (o no) de la Inteligencia Artificial (IA).

Musk sostiene que (*):

«La IA es un riesgo central para la existencia de la civilización humana.»

La respuesta de Zuckerberg:

«Soy optimista. Y no entiendo a la gente que es negativa e intenta inventar escenarios apocalípticos. Creo que es bastante irresponsable

Musk replica en Twitter:

«He hablado con Mark sobre esto. Su entendimiento sobre el tema es limitado.»

Por debajo de la batalla de la batalla entre dos egos ‘king size’ subyace una cuestión más de fondo: la de si conviene o no regular ya el desarrollo de la IA.

Musk aboga por una regulación proactiva:

La IA es uno de los raros casos en los cuales creo que necesitamos una regulación proactiva en lugar de una reactiva […] Cuando se produzca una regulación reactiva, será demasiado tarde.»

Zuckerberg discrepa, apuntando implícitamente que la regulación retrasaría el desarrollo de la tecnología.

«La tecnología puede siempre utilizarse para bien o para mal, y uno ha de ser cuidadoso acerca de lo que construye, cómo lo construye y cómo se utilizará […] Pero discrepo de la gente que aboga por ralentizar el proceso de crear IA.»

Hay un dato que quizá ayude a entender la polémica. Musk está acostumbrado a que sus empresas actúen en mercados fuertemente regulados, como el del automóvil. Facebook aprovecha carencias en la regulación (p.e. sobre privacidad) para extender su negocio (no es el único; empresas como Uber o Airbnb hacen lo mismo en otros ámbitos). ¿Defendería Zuckerberg que Tesla se saltara las reglamentaciones sobre seguridad para desarrollar más rápidamente el mercado de sus automóviles? No lo creo.

Subyace por tanto la cuestión de los objetivos y prácticas de la regulación, especialmente la de las nuevas tecnologías. Una cuestión repleta de criterios y matices, que de ningún modo se puede despachar como lo hace uno de nuestros más ilustres ilustrados-TIC‘:

«Reclamar regulación sobre una tecnología o conjunto de tecnologías antes de que se desarrollen es un problema [porque] muy pocas veces se desarrolla de la manera adecuada, y tiende a basarse en la restricción de posibilidades […] Esperemos que esas peticiones de regulación no lleguen a ningún político temeroso e inspirado. Y mientras tanto, sigamos trabajando.«

Por supuesto que, como en el ejemplo de los automóviles que apuntaba antes, la regulación ha de basarse en la restricción de posibilidades. Porque tenemos el derecho a reclamar que el respeto a criterios éticos y sociales sea un requisito que se aplique previamente al desarrollo de una tecnología. La eficacia limitada de muchos organismos reguladores no ha de ser una excusa para obviar la necesidad de una regulación proactiva, sino en todo caso para diseñar e implantar mejores regulaciones y organismos reguladores.

Una explicación del impulso que está teniendo el desarrollo de la IA es que será una herramienta de acumulación de riqueza y poder, seguramente en mayor grado que otras tecnologías. El mayor riesgo realThe Real Threat of Artificial Intelligence«) es que esta acumulación genere desigualdades y desequilibrios imposibles de gestionar a posteriori.

«Los productos de IA […] tienen el potencial de transformar radicalmente nuestro mundo, y no sólo para mejor […] Recompondrán el significado del trabajo y la creación de riqueza, llevando a desigualdades económicas sin precedentes e incluso alterando el equilibrio global de poderes.

A medio plazo, por ejemplo, la IA tensionará aún más el pacto social entre capital y trabajo (cuya regulación ya es conflictiva), eliminando los trabajos de muchos, pero sin hacerse cargo de la factura de los daños colaterales. Sabemos que la Revolución Industrial generó dislocaciones sociales del mismo tipo, que costó varias décadas solucionar. Una regulación proactiva apropiada debería evitar que esta historia se repita, esta vez en mayor escala. Es una cuestión de ética y de responsabilidad social.

(*) Video, a partir del minuto 48.

¿Conectar mi cerebro a Internet? No, gracias.

En un artículo en The Economist se preguntan si «tenemos los humanos que asumir que necesitaremos implantes en el cerebro para seguir siendo relevantes».

La pregunta surge al hilo de la noticia de que Elon Musk, el CEO de Tesla e impulsor de otras empresas de tecnología avanzada, ha anunciado la formación de Neuralink,  una nueva empresa que tendría como primer objetivo producir dispositivos invasivos para diagnosticar o tratar enfermedades neurológicas.

Parece, sin embargo, que la intención de la empresa, o cuanto menos de su promotor, apunta más lejos. Musk ha manifestado en una entrevista que los humanos corren el riesgo de acabar siendo tratados como mascotas por artefactos dotados de inteligencia artificial. Propone como una posible solución añadir artificialmente al cerebro una capa digital que, conectada a Internet, multiplicaría la memoria y la capacidad de computación del cerebro, y por tanto nuestra inteligencia.

Una perspectiva que la comunicadora de la Singularity University glosa de este modo:

«Podríamos multiplicar por mil nuestra inteligencia e imaginación. Sería una disrupción radical en cómo pensamos, sentimos y comunicarmos. Al transferir nuestros pensamientos y sentimientos directamente a otros cerebros podríamos redefinir la socialización y la intimidad de los humanos. En último término, subiendo nuestro Yo completo a las máquinas nos permitiría transcender nuestra piel biológica y convertirnos en digitalmente inmortales.»

Dos objeciones. La primera es filosófica. Afirmaciones de este tipo dejan traslucir una concepción materialista, o informacionalista si se prefiere, del ser humano. Pero no está nada claro que esta concepción tenga ninguna base científica. Me parece más convincente la argumentación de nuestra naturaleza espiritual que presenta Markus Gabriel en («Yo no soy mi cerebro«)

La segunda objeción es estratégica. ¿Es inevitable que hayamos de competir con artefactos dotados de inteligencia artificial? ¿Cuál es el sentido de decidir crear esos artefactos para que compitan con nosotros? ¿No merecería ese asunto algún tipo de dictamen democrático?

Además, incluso si era competencia fuera inevitable, las normas elementales de la estrategia dictan que nunca hay que escoger el terreno más favorable para el adversario. Si los artefactos nos superan en inteligencia digital, por llamarla de algún modo, tendrá sentido retarles en ámbitos donde otro tipo de inteligencia sea la determinante. Volvernos más digitales sería sólo un modo de ser hacernos más similares a ellos, y por tanto más vulnerables.

Conmigo, desde luego, que no cuenten.

Imagen: Singularity University