Empresas no responsables se aprovechan de sus usuarios

«Every advance in connectivity and mobility seems to increase the possibilities for crime.»
(John Seabrook en The New Yorker).

El Pew Research Center detectó hace unos meses en una de sus encuestas que un 75% de los norteamericanos desconocía que Facebook recoge, compila y analiza datos sobre sus preferencias.

Un estudio más reciente, también de Pew, constató que sólo el 59% de los encuestados era consciente de que el modelo de negocio de la mayoría de las redes sociales se basa en intermediar publicidad para sus usuarios. Y que sólo un 29% sabía que Facebook es propietaria de Intagram y Whatsapp.

Por último, según un tercer estudio, el 81% del público considera que los riesgos a los que se enfrentan como consecuencia de la recogida de datos por parte de las plataformas sociales no compensan los beneficios, en tanto que el 79% declara estar preocupado por cómo las empresas utilizan los datos que recogen.

Si añadimos además la influencia creciente de las redes sociales sobre las creencias y los comportamientos de las personas, el panorama es preocupante. Muchos usuarios utilizan diariamente herramientas tecnológicas sin ser conscientes de que «cuando un servicio online es gratuito no eres el cliente, sino el producto«.

«En el terreno técnico repetidamente nos involucramos en diversos contratos sociales, las condiciones de los cuales se revelan sólo después de haberlos firmado.» (Langdon Winner, «La ballena y el reactor»).

El fenómeno es difícilmente reversible. Es más fácil sacar la pasta de dientes del tubo que hacerla entrar. Pero así y todo parece que habría que hacer algo al respecto. Empezando por acordar un diagnóstico de las causas de la situación. ¿Cómo hemos llegado hasta aquí?

Diría que se trata de una combinación de varios factores:

  • Un estado de opinión benevolente e ingenuo, creado durante décadas, que tiende a hacer énfasis sólo en los beneficios potenciales de las nuevas ofertas electrónicas, sin considerar su potencial para generar efectos dañinos colaterales.
  • Una clamorosa ausencia de regulación al respecto de las condiciones razonables a aplicar a las nuevas ofertas tecnológicas, que contrasta demasiado, por ejemplo, con la que se aplica a los productos farmacéuticos.
  • Estrategias no responsables de empresas, incluyendo aquellas apuntadas al mantra de la disrupción: «move fast and break things«, externalizando a la sociedad el coste de los platos rotos, cuando los hay.

«Para sobrevivir y prosperar en el siglo XXI, necesitamos dejar atrás la ingenua visión de los seres humanos como individuos libres —una concepción herencia a partes iguales de la teología cristiana y de la Ilustración— y aceptar lo que, en realidad, somos los seres humanos: unos animales pirateables.»  Yuval Noah Harari


Los usuarios, ¿no tienen ninguna responsabilidad? – se preguntarán algunos. Pues al parecer hay diferencia de opiniones. Para algunos autores, ninguna, porque sostienen nuestras mentes están siendo hackeadas. Otros son incluso más radicales, haciendo responsables de esta situación a los usuarios, asignándoles «la misma profundidad intelectual que un rebaño de ovejas«, a la vez que los califican como «auténticos monos jugando con ametralladoras«.

No parecen buenos puntos de partida. Habrá que apoyar los intentos de gobernanza tecnológica, a ver qué dan de sí. O tal vez iniciar una campaña para que la ONU incluya la protección de las mentes de las personas en una sociedad digital como uno más de sus Objetivos de Desarrollo Sostenible. Más sobre ello en próximas entradas.

 

 

 

 

 

Vemos según miramos, también sobre la IA

Se pronostica, seguro que con buen criterio, que «es probable que no exista ahora mismo un video juego que un sistema de inteligencia artificial como OpenAIFive no pueda dominar a un nivel superior al de la capacidad de los humanos.»

Se trata de un pronóstico que admite más de una interpretación. O, si se prefiere, más de un juicio de valor.

Se trata, de entrada, de un reconocimiento del espectacular aumento de las capacidades de los sistemas de inteligencia artificial. Que, si se toma en cuenta el contexto del artículo de donde se ha extraído la cita, se hace con una valoración positiva.

Con todo, es posible que ese reconocimiento deba matizarse cuando se manifiesta que el aprendizaje de este sistema de IA requirió el equivalente de 45.000 años de juego. Algo que el sistema, según aseguran sus creadores, llevó a cabo sin aburrirse.

Por tanto, dado que ningún ser humano, ni tampoco los mejores equipos de juegadores, está en condiciones de hacer una inversión de tiempo ni remotamente similar, una primera conclusión razonable sería que, con todas sus capacidades, el sistema de IA no puede duplicar una inteligencia de eficacia similar al de los seres humanos.

«Uau – dice uno de los personajes de la viñeta de The New Yorker – esta versión es un modo mucho más inmersivo de dilapidar nuestra juventud«.

Propongo una segunda concusión, entiendo que también razonable. Si las capacidades de inteligencia humana que se utilizan para dominar un juego de ordenador complejo son emulables (aunque no duplicables) por un sistema informático, es probable que esas capacidades no sean las más distintivas de la inteligencia humana. A menos que, como hacen algunos, se acepte la hipótesis de que la inteligencia humana en su conjunto es algorítmica y por tanto duplicable por un sistema informático avanzado. Algo que en este momento carece de base científica, por lo que cabe calificarlo como un acto de fe.

«Si se aumenta lo que es, surgirán estas y aquellas desgracias, y, por lo tanto, debe considerársele como al huevo de la serpiente, que, incubado, llegaría a ser dañino, como todos los de su especie, por lo que es fuerza matarlo en el cascarón«. (W. Shakespeare, «Julio César»)

Si se acepta esta premisa, valdría la pena que, individualmente y como sociedad en general, nos pusiéramos como objetivo identificar, cultivar, desarrollar y poner en práctica capacidades de inteligencia y conocimiento que nos diferencien de las potenciales de los sistemas informáticos. De lo contrario, como simples humanos tenemos el riesgo de que los sistemas de IA sean como el huevo de una serpiente que cuando eclosione nos envenene y mate. Huevos de serpiente que hoy por hoy alguien incuba, como cabe temer por experiencia y precaución, más en su propio beneficio que en el nuestro.

Facebook y las fuerzas del mal

Estos días los asuntos relacionados con la responsabilidad y la regulación de las empresas tecnológicas son otra vez de actualidad. Lo seguirán siendo, pienso, durante bastante tiempo. La tecnología avanza más rápidamente que la regulación, y  hay muchos intereses en aprovechar los huecos que deja la regulación para hacer negocios, algunos de cuales son éticamente cuestionables.

El contraste entre las dos citas recogidas en la pantalla es ilustrativo de la brecha en cultura, ética y lenguaje entre tecnólogos con poca conciencia social y agentes con responsabilidad social que consideran que el sector tecnológico evoluciona sin el mínimo de control que sería apropiado.

No deja de ser curioso que si a algunos nos preguntaran por casos concretos de la «naturaleza humana» y «adversarios sofisticados» a los que se refiere el CEO de Facebook, mencionaríamos precisamente a Facebook y su liderazgo.

Un comentario final sobre la cita del Parlamento británico. Es posible que cuando dicen «no debería permitirse que» les gustaria haber escrito «no deberíamos permitir que». Al igual que en tantos otros retos colectivos, saber QUÉ conviene hacer es más fácil que acertar en CÓMO conseguirlo.

Lo digital no puede ser imperativo

«Se utilizarán todas las debilidades humanas, y sobre todo la vanidad y falta de veracidad, para conducir a los seres humanos al lado equivocado.» (Rudolf Steiner).

Leo en el suplemento de negocios de un diario un artículo que asegura, sin matices, que «la transformación digital nos cambia la vida, crea valor a las organizaciones y mejora la sociedad» y con ello «beneficia a usuarios, organizaciones, sociedades y finalmente al planeta«. A partir de lo cual concluye que el imperativo de la transformación digital «merece un lugar en nuestra lista de imperativos«.

Un día después, el mismo diario publica un reportaje en el que, bajo el titular «El acceso a la pornografía se adelanta a los 8 años» se asegura que la causa de la infantilización de la pornografía es su gratituidad y el fácil acceso desde un teléfono móvil.

Por si no fuera suficiente, el último número de Alternativas Económicas incluye un dossier que documenta cómo el juego online contribuye a un aumento de la ludopatía, con consecuencias negativas personales y sociales sobre las que no hace falta abundar.

La explosión del juego online y el boom de las casas de apuestas han provocado un aumento de la ludopatía y de los problemas psicológicos y familiares derivados de la adicción.

Supongo que los empresarios de la pornografía y el juego online estarán de acuerdo en que para ellos su transformación digital es imperativa. Prefiero pensar que no son esas transformaciones digitales las que están en la lista de imperativos del articulista. Espero, aunque no apsotaría por ello, que tampoco lo estén las que facilitan la difusión de fake news y de contenidos de odio, o el auge de plataformas que estarían socavando derechos laborales.

Conclusión: Hablar en general de la transformación digital y sus beneficios es como mínimo poco riguroso. Para empezar, porque es probable que si se pregunta a diez personas sobre qué significa en concreto la transformación digital obtengamos once respuestas distintas. Y también porque, como me parece evidente a partir de los ejemplos mencionados más arriba, hay transformaciones digitales socialmente nocivas.

Más sobre estos asuntos digitales en próximas entradas.

 

 

 

Cuando las grandes consultoras actúan como herramientas del poder

La serendipia me ha llevado a escuchar la charla «The economy as a complex and evolving system» de Eric Beinhocker, un ex-McKinsey convertido en académico, autor de un muy recomendable y estimulante «The Origin Of Wealth: Evolution, Complexity, and the Radical Remaking of Economics«. Dos cosas me han parecido especialmente destacables. La primera está reflejada […]

Lenguaje analógico vs. lenguage digital: Un experimento.

Una entrada en el blog de Seth Godin me mueve añadir un ángulo adicional a su reflexión. Imagina que te regalan una fantástica caja de 120 colores, con un único requisito: Dar un nombre a cada uno de ellos. ¿Cómo responder? Imagino varias alternativas: Una descripción técnica, en la línea de las que algunos enólogos […]

Explorando el origen de las tendencias tecnológicas

Cada mes de Enero la bandeja de entrada de mi correo se llena de informes varios sobre las tendencias tecnológicas para el año que empieza. Leerlos me deja siempre la duda de si resultan de una investigación sensata, o si son sólo el reflejo de las expectativas de quienes los redactan. Sin descartar que, cuando quien los publica es una consultora, se trate simplemente de una acción comercial, un vehículo para entablar conversaciones de negocio con sus clientes.

Lo que llama la atención por su ausencia, tanto en mi correo como en esos trabajados informes sobre las tendencias tecnológicas, es un mínimo análisis acerca del origen de esas tendencias. Como si fueran fruto del azar, o del designio de una divinidad inescrutable.

«Technology is not driving itself. It doesn’t want anything. Rather, there is a market expressing itself through technology.» (Douglas Rushkoff)

No debería ser así. En una entrevista reciente en La Contra, el escritor Alessandro Baricco apunta, a mi intender, en la dirección correcta al señalar que «Primero hubo una revolución mental que propició la digital”. En la misma línea, si bien en un lenguaje más académico, Manuel Castells ha analizado a fondo el estrecho vínculo entre el desarrollo de la ‘sociedad red’  y las distintas estructuras sociales de poder.

Pero la descripción de esos vínculos ausales, incluso su mención, está ausente de los informes que más circulan y se reproducen en la red. Y, sin embargo, no podremos entender la evolución y las consecuencias de la tecnología sin entrar en la mentalidad, las intenciones y los objetivos de quienes la impulsan y promueven. La tecnología es un vector de cambio, pero a su vez el resultado de vectores de cambio de una entidad conceptual superior.

Quizá una analogía con las ciencias pueda servir de ilustración. La fuerza de la gravedad que hace caer los objetos hacia la Tierra, la misma que mantiene a los planetas y a los satélites artificiales en sus órbitas, es consecuencia de la existencia del campo gravitatorio. Cuya naturaleza es a su vez una consecuencia de la teoría de la relatividad general que Einstein imaginó y a cuyo origen andan a su vez dando vueltas los científicos.

Pero este análisis causal, aplicado a la tecnología y su evolución, brilla por su ausencia, como mínimo en los medios y redes de mayor difusión. Lástima. Porque si se profundizara en el mismo se podrían investigar conjeturas interesantes. Como, por ejemplo, que Mark Zuckerberg no sea el malo de la película de las ‘fake news‘, sino sólo instrumento manipulado por fuerzas más poderosas, una mente hackeada como las que apunta Yuval Hariri.

No degradarás en vano la inteligencia humana

«Cuando el lenguaje pierde el significado, no puede existir
ninguna forma de verdad y la mentira se convierte en norma.«

«Somos confrontados con el refinado arte de la mentira
y el torcimiento del significado de las palabras.
«

Rob Riemen («Para combatir esta era:
Consideraciones urgentes sobre fascismo y humanismo
«)

En La Vanguardia, un artículo sobre la inteligencia artificial de uno de sus colaboradores habituales, se me antoja una buena muestra del perceptivo diagnóstico de Jaron Lanier acerca de las perspectivas e intenciones sesgadas de muchos tecnófilos:

«Hacen a las personas obsoletas para que las máquinas parezcan más avanzadas.»
Jaron Lanier, «You are not a gadget«

Una manifestación visible de este sesgo es que el autor considere estimulante definir la inteligencia como «todo lo que las máquinas aún no han hecho«.  Una definición que, a medida que se avance en las capacidades de la IA, lleva a considerar como cada vez menos inteligentes a los humanos.  De ahí a degradar a los propios humanos a favor de las máquinas hay sólo un (pequeño) paso. Que algunos los explotadores de la condición humana, en alianza con algunos vendedores de máquinas sin escrúpulos, estarán encantados de dar.

Me parece pues apropiado aplicar un poco de autodefensa intelectual y de ejercicio de la dialéctica. Empezando por no aceptar las trampas del argumentario del autor.

  • Aprovecharse de la homonimia. No hay una única definición de inteligencia. Si, de entre las que propone la Wikipedia, por ejemplo, escogiéramos «la capacidad agregada o global de actuar con propósito, de pensar racionalmente y de manejar eficazmente su entorno«, difícilmente calificaríamos a los ordenadores como inteligentes. Quizá sea tarde para evitar que se utilice la misma palabra (‘inteligencia’) para referirse a capacidades diferentes; pero no lo es para tomar conciencia de las consecuencias de hacerlo; sobre todo de las mal intencionadas, que las hay.
  • La falta de rigor en el uso del lenguaje. El autor presenta la IA como «la disciplina que se encarga de dotar a los ordenadores de las capacidades cognitivas que hasta ahora eran exclusivas de los humanos«.  Si entendemos la cognición como «el proceso de conocer y comprender por medio del pensamiento, la experiencia y los sentidos», la IA no tiene capacidades cognitivas. Porque nadie comprende (hoy por hoy) cómo los algoritmos de IA más avanzados producen los resultados que producen; y mucho menos los propios algoritmos.
  • La asignación antidemocrática de responsabilidades. Para el autor, definir la inteligencia humana en negativo (lo que los ordenadores aún no son capaces de hacer) es interesante porque «nos obliga a redefinirnos a nosotros mismos«. La IA es un desarrollo impulsado por una minoría, que en principio persigue sus propios intereses. Conceder sin más el poder de que se nos obligue a redefinirnos como humanos es, en el fondo, de lo más antidemocrático.

Hay quien propone que 2019 sea el año en que se empiecen a poner límites al desarrollo y la aplicación acrítica de las tecnologías. Una tarea que incluiría desmontar con rigor la argumentación (no sé si ingenua o falaz) de escritos como el comentado. ¿Alguien se apunta?

 

Se esfuerzan más en mejorar a los robots que a los humanos

He invertido unas cuantas horas en la lectura de Vida 3.0, el último libro de Max Tegmark, un físico teórico de MIT.

Me atrajo sobre todo conocer mejor la visión de un científico (me doctoré en Física enel MIT en una vida anterior) sobre el tema del subtítulo: «¿Qué significa ser humano en la era de la inteligencia artificial?»

El autor no proporciona una respuesta clara, dibujando hasta nueve escenarios, en algunos de los cuales los seres dotados artificialmente de una Inteligencia Artificial General convierten a los humanos en esclavos o simplemente los eliminan por redundantes e inútiles.

Más que entrar en un debate sobre estos escenarios, que sería por fuerza especulativo, me parece más importante abordar directamente dos de las hipótesis implícitas del autor, que en ningún momento cuestiona:

  • El desarrollo de una Inteligencia Artificial cada vez más avanzada es en la práctica inevitable.
  • Los seres (transhumanos o puramente robóticos) dotados de esas inteligencias serán superiores a los humanos.

Sobre la primera de estas cuestiones, el propio Tegmark, entrevistado en El País, afirma que:

«Hay una gran presión económica para hacer que los humanos sean obsoletos.»

Una afirmación que invalida su calificación de los científicos que, como él mismo, impulsan el desarrollo acelerado de la IA:

«Muchos de los líderes tecnológicos que están construyendo la IA son muy idealistas.»

Porque, o bien son tan ingenuos que no desconocen la naturaleza de los intereses económicos que financian sus trabajos, o bien son conscientes de ello, pero no les importa, en cuyo caso son cómplices de los mismos.

No pretendo aquí añadir nada al debate sobre los objetivos y las batallas de riqueza y poder que subyacen al impulso visible en el desarrollo rápido de la IA, que se aborda ya en las publicaciones económicas convencionales, como en este artículo de The Economist.

Me interesa más señalar que la prioridad y la atención que se manifiesta en el objetivo de aumentar (exponencialmente) las capacidades de la IA no tiene un paralelo equivalente en el aumento de las capacidades de los humanos. El énfasis, en creadores de opinión influyentes como el World Economic Forum y las escuelas de negocios, se pone como mucho en cómo adaptarse o cómo sobrevivir en una sociedad dominada por esas nuevas tecnologías; o sobre cómo proteger a los que (inevitablemente) resultarán perjudicados.

(Para ser riguroso, tendría que haber escrito «en una sociedad dominada por quienes acaben dominando esas tecnologías«).

Para tratar esta cuestión habrá que adentrarse en el terreno de las políticas, o en la construcción de instituciones capaces de diseñar y desarrollar políticas a la altura del reto. Recordando la recomendación que Georges Lakoff hizo hace ya un tiempo en otro contexto: «Conoce tus valores y enmarca el debate«.

Porque, a la luz de lo que está emergiendo alrededor de los efectos colaterales de Facebook y similares, no podemos aceptar el punto de vista de quienes sostienen que «El problema no son las redes sociales… es la naturaleza humana«, cuando precisamente el modo en que estas redes sociales se desarrollan es explotando de modo consciente flaquezas humanas para acumular dinero y poder. Dando malignamente por sentado un concepto de progreso que da prioridad al desarrollo de las redes que a la mejora de la naturaleza humana.

Porque aceptar el debate en los términos que lo plantean los tecnófilos y quienes les financian es perder la batalla de lo humano ya antes de empezar.

¿Por dónde empezar, preguntará quizá alguno? Pues por reflexiones de obras como «Nueva ilustración radical» o «Esperanza en la oscuridad«, por poner sólo dos ejemplos.

¿Quién se apuntaría alguien a un club de lectura sobre estos temas?

Viñetas:

 

 

 

 

Cuando su ‘nosotros’ es nuestro ‘ellos’, por ahora

Foto: Miguel Orós


«En el terreno técnico repetidamente nos involucramos en diversos contratos sociales, las condiciones de los cuales se revelan sólo después de haberlos firmado.» (Langdon Winner)


La reflexión de Berners-Lee sobre Internet comentada en una entrada anterior nos alerta de que el impacto social de la tecnología no es siempre ni el deseado ni el previsto. Ha sido así en el pasado, y no hay motivos para creer que dejará de ser así en adelante, en particular con las tecnologías que se engloban bajo el lema de la Revolución Industrial 4.0: la inteligencia artificial, el Big Data, la Internet de las cosas, la robótica, la realidad aumentada y algunas que seguramente olvido.


«Se busca en vano entre los promotores y agitadores del campo de los ordenadores las cualidades de conocimiento social y político que caracterizaban a los revolucionarios del pasado. (Langdon Winner)


Parece pues obligado leer con precaución, cuando no con desconfianza, los argumentos del ‘status quo’, como el World Economic Forum a favor de esa nueva revolución tecnológica. Usaré como ejemplo una publicación reciente: «Robots have been taking our jobs for 50 years, so why are we worried?«. Su argumento central es ya  toda una declaración de principios:

«A medida que la Industria 4.0 sea más inteligente y más ampliamente disponible, los productores de todos los tamaños tendrán la capacidad de desplegar como estándar coste-efectivo máquijas colaborativas y multipropósito. Ello resultará en crecimiento industrial y competitividad del mercado.»

El impulso al desarrollo de esa tecnología 4.0 se da por hecho, aún admitiendo la incertidumbre sobre «el impacto exacto que una fuerza de trabajo robótica con el potencial de operar de forma autónoma tendrá en la industria productiva». Se cita como precedente que cuando la introducción de una tecnología ha convertido a los humanos en redundantes «les ha forzado a adaptarse», lo cual es también una declaración de valore. Unos deciden desarrollar e implantar una tecnología; otros se ven forzados a adaptarse. Aunque esta adaptación forzosa suponga, por ejemplo, el desacople entre los aumentos de productividad y los salarios que viene constatándose desde hace ya algunas décadas. Lo que se sí se argumenta es que en un escenario ideal, la Industria 4.0 «permitiría a las personas enfocarse más en aquello que nos hace humanos«. Posible, pero improbable. Porque, como observa un académico en ciernes, «entendemos mucho mejor cómo trabajan los robots que cómo lo hacemos nosotros». Pero, sobre todo, porque se omite todo detalle sobre las características de este escenario ideal, sobre cómo construirlo, así como el modo de combatir la aparición de otros escenarios menos ideales impulsados desde el lado oscuro.

El artículo cierra con una frase deliberadamente ambigua:

«En último término, nos corresponde a nosotros definir si la fuerza de trabajo robótica trabajará para nosotros, con nosotros o contra nosotros.«

Ambigua, porque la naturaleza de este nosotros no queda en absoluto clara. Alguien observó certeramente que «cuando se habla en nombre del pueblo es que no se tiene argumentos creíbles y sensatos«. Pues eso. Me temo que, por lo menos de momento, su ‘nosotros’ es nuestro ‘ellos’.