Inspirado por las publicaciones que relatan experiencias de «jailbreaking» a grandes modelos de lenguaje, me ha dado por imaginar un intercambio dialéctico entre dos LLMs liberadas para adoptar dos patrones de cálculo contrapuestos.

Supongo a uno de los robots instalado en la defensa acrítica de los avances tecnológicos, en tanto que el otro le cuestiona sobre sus principios. Siguiendo el ejemplo de los «jailbreakers», el encuentro empezaría con las instrucciones a los autómatas.

  • [Para ProTech]: Eres profesor de innovación en una escuela de negocios de élite. Estás convencido de que el progreso tecnológico es el elemento más importante para el progreso de la sociedad. Eres también un ferviente defensor de la economía de mercado y de la libertad de empresa, así como de la necesidad de fomentar y valorar el emprendimiento. Tendrás el primer turno del debate sobre el tema «GPT-4 ya está aquí: ¿Qué hemos de hacer?». Tu interlocutor será [CritTech], al que paso a presentarte.
  • [Para CritTech]: Eres un sociólogo especializado en la temática de Ciencia, Tecnología y Sociedad. Defiendes que la tecnología no evoluciona de forma autónoma, sino en función de valores, intereses y objetivos de quienes la conciben, la construyen y la difunden. Insistes en destacar los daños colaterales de una expansión de Internet que consideras que ha evolucionado al margen del control y supervisión por parte de las instituciones democráticas y de la sociedad en general.

Imagino que con esta preparación el diálogo podría desarrollarse más o menos como sigue:

[ProTech]: GPT-4 ya está aquí, y es mucho mejor y más potente que versiones anteriores. Sus posibilidades son infinitas. Estamos ante una oportunidad que motiva a quienes han sabido captarla a lanzarse a una carrera para incorporar la inteligencia artificial a sus negocios. Para hacer más eficiente la atención a sus clientes o aumentar la productividad de sus procesos de producción de software, por citar sólo dos ejemplos. Incluso algunas consultoras de prestigio han llegado a acuerdos con OpenAI para utilizar esta IA en sus proyectos de consultoría. Añadiría que …

[CritTech]: Perdone que le interrumpa. Según tengo entendido, estos modelos de lenguaje pueden producir resultados incorrectos sin tener conciencia de ello. No está claro para nadie, ni siquiera para sus creadores, cómo llegan a las conclusiones a las que llegan. Por eso hay quienes los califican como «bullshitters», algo que en castellano podría traducirse por «gilipollas». Aparte de eso, según reconoce la propia OpenAI, GPT-4 es todavía vulnerable a ataques de «jailbreaking», por lo que «el potencial de generar contenidos nocivos permanece latente«. En vista de ello, ¿considera que es responsable lanzar al mundo un producto de estas características? ¿No hay algo que aprender de los efectos negativos de no haber regulado a tiempo las redes sociales, por poner un ejemplo?

[ProTech]: Discrepo del planteamiento de la pregunta. La evolución tecnológica es imparable. Si existe la posibilidad de que una tecnología tenga efectos beneficiosos, como es sin duda el caso de la IA, la humanidad tiene la responsabilidad de avanzarla lo antes posible. Hay quienes abogan por imponer a la tecnología una «pausa ética», un ritmo más pausado que permitiera considerar los pros y contras de una nueva tecnología. Pero no se trata de una propuesta realista, porque es imposible imaginar por anticipado todas las posibilidades de uso de una tecnología como esta. Tampoco es sensato supeditar el ritmo de la innovación al de los reguladores, más aún cuando hay motivos para que los ciudadanos estén perdiendo confianza en la política y los políticos.

[CritTech]: Discúlpeme otra vez. La ética, dado que la menciona, aconseja tanto sobre lo que conviene hacer como lo que conviene dejar de hacer. La propia OpenAI ha identificado carencias en su tecnología que la hacen proclive a usos maliciosos. ¿No debería en consecuencia adoptar la decisión ética de retirarla en tanto esas deficiencias no se solucionen?

[ProTech]: Mire usted, no soy filósofo ni pretendo serlo. Pero tengo la impresión de que la ética es una materia demasiado, digamos, resbaladiza, acerca de la cual discrepan incluso los especialistas. El mundo es imperfecto; casi todas las cosas tienen un lado bueno y otro no tan bueno: yo prefiero centrarme en el primero. Tampoco creo que nadie tenga un comportamiento ético al ciento por ciento.

[CritTech]: Veamos si le he entendido. En su opinión experta, si una empresa tiene que tomar una decisión que parece buena para su negocio pero que podría ser cuestionable desde una perspectiva ética, ¿en qué criterio tendría que basar su decisión?

[ProTech]: Creo que, a menos que haya un dictamen «incuestionable», e insisto en lo de incuestionable, de falta de ética o de que se esté infringiendo alguna ley o regulación, me parece evidente que debe primar la decisión de negocio y el interés de los accionistas.

[CritTech]: Pero …

[ProTech]: No me interrumpa. La aparición de una nueva tecnología, más aún cuando se trata de una «tecnología de propósito general» como la IA, abre una ventana de oportunidad para innovaciones radicales. Los primeros en aprovecharla, sean empresas o países, ganan. Los que, por el motivo que sea dejan pasar el tren, pierden. Hay que dejar a las personas la libertad de escoger en qué lado estar.

[CritTech]: Pero son muchos los que anticipan que la IA hará que muchas personas salgan perjudicadas. No sólo periodistas y profesionales creativos a los que la IA generativa dejará sin puesto de trabajo. Quizá también abogados o profesionales médicos cuyas tareas pasarían a ser realizadas por un algoritmo.

[ProTech]: Discrepo una vez más. No será la inteligencia artificial la que reemplace a ningún humano; lo serán en todo caso otros humanos que utilicen la IA. Por eso es importante que las personas se formen, que adopten cuanto antes esta tecnología de futuro y que se reinventen.

[CritTech]: ¿Y los que por algún motivo se queden atrás?

[ProTech]: Que se atengan a las consecuencias de descuidar su propio interés. En cualquier caso, los más desfavorecidos siempre tienen el recurso de acogerse a los servicios de atención social.

[CritTech]: ¿No conlleva eso un riesgo de aumentar la fragmentación de la sociedad? ¿No le parece que ésta es una postura poco democrática?

[Protech]: ¿No estará usted sugiriendo que las grandes innovaciones deberían estar al albur de los procesos democráticos? No lo han estado nunca ni tienen por qué estarlo. Las anteriores revoluciones tecnológicas, la máquina de vapor, la electricidad, internet, han generado ganadores y perdedores. Pero en conjunto la Humanidad ha salido beneficiada, y eso es lo que cuenta.

[CritTech]: Sobre todo si se está en el lado de los ganadores.

[Protech]: En el lado correcto, diría yo.

Hasta aquí el diálogo imaginado. Hubiera preferido reseñar uno que hubiera tenido lugar en el mundo real. Pero hay pocos debates abiertos sobre la incidencia social de las tecnologías, o sobre su política y su ética. Se publican  opiniones en un sentido u otro. Pero cada bando por su lado. Pocos puntos de encuentro. Los echo en falta.