Inteligencia artificial y el factor humano: hay decisiones que no pueden ir por libre

18 febrero 2023

El gran Douglas Engelbart insistió mucho en la idea de que la tecnología no debe reemplazar a los humanos sino amplificar sus capacidades. La recompensa, decía, vendrá cuando usemos las computadoras «para unir a las comunidades de personas y aumentar la habilidad humana de resolver problemas difíciles».

Pero estamos más obsesionados con reemplazar que con amplificar. Una lógica que aplicada de forma irreflexiva puede tener consecuencias desastrosas. Solo si conseguimos definir un marco saludable para relacionarnos con la tecnología lograremos que lo primero se haga en su justa medida y que lo segundo multiplique de verdad nuestras capacidades individuales y sociales.

Evita extrapolar, no hay nada parecido en el pasado

Si entendemos la inteligencia como la capacidad de razonar, crear, aprender, resolver problemas y tomar decisiones, entonces provoca cierta desazón imaginarse un escenario en el que todas esas acciones se puedan realizar mejor por las máquinas (aunque, como sabemos, detrás de ellas estén los humanos).

Y paradójicamente, Gonzalo de Polavieja me recordaba que ninguna de estas capacidades citadas «parece ser la parte más humana de los humanos», a menos que en ellas se tenga en cuenta la dimensión emocional.

Las máquinas soportadas por inteligencia artificial exhiben tres fortalezas que las hacen especialmente poderosas (y temibles, si admitiéramos un escenario sin límites éticos):

  • La capacidad de procesar casi simultáneamente muchas más variables condicionantes de una decisión que las que puede manejar un humano.
  • Una enorme memoria para almacenar datos y patrones, lo que facilita los análisis complejos.
  • La posibilidad de ensayar miles o millones de combinaciones entre piezas de información, en modo ensayo-error, hasta dar con la solución óptima, cuando se trata de razonar o decidir, o hasta descubrir conexiones improbables para generar un resultado sorprendente, si se trata de crear.

El efecto acumulativo de estas tres fortalezas, además, produce un rápido aprendizaje, lo que puede activar una lógica de círculo virtuoso (o vicioso, según los fines y cómo se vea) que haga a la inteligencia artificial imbatible en algunos campos.

Antes de seguir, conviene que pare ahora para aclarar que no soy ludita. Sería estúpido dejar de aprovechar toda la riqueza que ofrece nuestro entorno, incluida la tecnología, si se hace con criterio.

Por ejemplo, la inteligencia artificial y el big data pueden contribuir muy positivamente al bienestar del ser humano. Un ámbito en el que resultan evidentes sus posibilidades es la medicina, donde, en un futuro cercano, puede llegar a ser la estrategia más efectiva y eficiente para detectar enfermedades.

Los médicos seguirán siendo muy necesarios para aportar la capa irrenunciable de interpretación, así como para comunicar los resultados a los pacientes y contextualizarlos. Pero en la mayoría de los casos las señales más oportunas y convincentes de las patologías provendrán de soluciones tecnológicas y no tanto del ojo clínico de personas expertas. Esto es así porque los humanos carecemos de la capacidad de procesar la cada vez mayor cantidad de datos que se necesitan para la toma de decisiones complejas. Y el diagnóstico certero de ciertas patologías conlleva un incremento de la complejidad tal que la única forma de abordarla muy probablemente pase por la creación de sofisticados algoritmos.

Todo eso es cierto, pero no podemos ir a favor (o en contra) de la IA sin discernimiento. No hay ningún precedente parecido a esto en el pasado, así que es ingenuo extrapolar aprendizajes anteriores a lo que se nos viene ahora con este tsunami.

No me vale que me digan que siempre hemos tenido miedo a los cambios tecnológicos pero que después nos hemos adaptado. Vamos tan rápido y con un impacto tan exponencial, que apenas tenemos tiempo de discernir si es bueno. Y lo peor es que la capacidad de ver la foto completa —si acaso— solo la tienen unos pocos grandes jugadores. Nosotros participamos en el juego sin saber bien a dónde vamos.   

¿Se salva el arte y la creación de la Inteligencia Artificial?

El caso de la creación artística es especialmente inquietante. Suele afirmarse que las máquinas son incapaces de hacer arte como lo hacen las personas. Sin embargo, su increíble capacidad de combinación, aplicada sobre ingentes bases de datos, puede generar conexiones improbables de una riqueza creativa similar a la humana.

Los dos argumentos que habitualmente cuestionaban esta posibilidad ya suenan hoy —a la luz de los recientes avances de la Inteligencia Artificial generativa— muy humanocéntricos:

  1. las creaciones de las máquinas no tienen alma, y
  2. se trata de imitaciones, no de genuinas creaciones.

En cuanto al primero, me gustaría ver a un grupo de expertos en artes plásticas tratando de descubrir, en una exposición, qué obras han sido generadas por inteligencia artificial y cuáles por humanos, para ver hasta qué punto eran capaces de detectar la «falta de alma» de las primeras.

Hay que tener en cuenta que al final las máquinas son creaciones humanas, y podemos transferirles «una parte de nuestras almas» de muy diversas maneras.

El segundo argumento también es débil porque la creación artística, como tantas otras capacidades humanas, tiene mucho de imitación. Y si los artistas (consciente o inconscientemente) crean a partir de las piezas de información que han capturado en sus experiencias estéticas y emocionales, las máquinas también mezclan fragmentos para lograr que afloren objetos o sucesos únicos y originales.

Entonces me pregunto, aunque la máquina propiamente dicha carezca de emociones, ¿quién dice que el resultado improbable de sus algoritmos no pueda inspirar emociones en nosotros? Y si nos emociona el resultado, ¿cómo podemos afirmar que la obra «carece de alma»? Intuyo que para que eso pase solo hace falta evitar que el observador sepa que se trata de una obra no-humana. Si se emociona, supondrá que lo ha hecho una persona cuando en realidad es la creación de una máquina.

Hasta aquí, un intento de ser realista al evaluar la «tasa de sustitución humana» con la que estamos jugando. Veamos qué consecuencias tiene esto.

Hay decisiones tecnológicas que no pueden ir por libre

En El Libro de la Inteligencia Colectiva —que dedica un capítulo entero a la «paradoja de los atajos tecnológicos»— me quejo de que hemos dejado la relación cotidiana con la tecnología (redes sociales, correo electrónico, plataformas digitales) a la suerte de los individuos. Sometidos además —como lo están— a la fuerte presión de las empresas tecnológicas y desamparados de cualquier soporte colectivo estructurador. Esto es así en los espacios del ocio, la educación o las formas de trabajar y relacionarnos y tiene un fuerte impacto colectivo en realidades como la soledad encubierta, el sedentarismo, la pérdida de privacidad o el desempleo.

El «diseño adictivo», que practican las grandes empresas que controlan Internet, no tiene contrapeso social, ni legal, ni ético. Demasiado dinero sesga la balanza a su favor.

Llevado eso a un nivel más sofisticado, tenemos que hablar, cómo no, del riesgo latente que implica la Inteligencia Artificial. Como dice Steven Johnson, la humanidad necesita definir «una clase especial de decisiones que pueden crear potencialmente un riesgo de extinción», como crear computadoras superinteligentes. Y someterlas a alguna forma novedosa de supervisión global que tenga en cuenta el grado de tolerancia al riesgo que estamos dispuestos a aceptar a nivel planetario. Si esto no se hace, unos pocos seguirán jugando en los límites o incluso más allá, según sus propias reglas, mientras que el resto tendremos que sufrir las consecuencias.

Para crear inteligencia, ¡son los procesos, estúpido!

Por otra parte, hay un asunto que se soslaya demasiado a menudo y que a mí me parece fundamental: Que el atajo tecnológico sea más eficaz en el resultado —cuando así sea— no es razón suficiente en muchos casos para sustituir el procedimiento humano.

Automatizar cosas tiene mucho sentido en ciertas actividades pero es un atajo contraproducente en aquellas donde el proceso tiene valor en sí mismo.

Encontrarse con los resultados sin participar en la elaboración puede ser sumamente contraproducente. Si un atajo tecnológico, por muy eficaz que resulte para resolver una tarea específica, atrofia capacidades y destruye algunas de las cosas que nos hacen humanos, seres esencialmente sociales, entonces no vale la pena. En estos casos, lo que nos perdemos por renunciar al camino principal, a hacer las cosas con el espíritu que solíamos hacerlas, es de mucho más valor que llegar pronto o hacerlo más fácil.

El profundo significado de la manera en que se llega a un resultado, y de las capacidades que se construyen o se destruyen por el camino, trasciende por mucho la consistencia de ese resultado en sí. Y vista la creciente eficacia con que pueden funcionar las máquinas, el único reducto argumental que nos va quedando, aparte del ético y el de la supervivencia, es ese del valor intrínseco de los procesos.

Es abrumadora la evidencia de que el resultado, en términos de eficacia, no es lo único importante.

Nuestra tentación resultadista es tal que un argumento que con frecuencia sale en defensa del uso de mecanismos del tipo de la inteligencia artificial es que suelen ser más ágiles y eficientes por euro invertido que los métodos sociales o deliberativos. A igual esfuerzo o inversión, las máquinas arrojan resultados más rápido —y mejor, según algunos— que la humana colaborativa, una promesa que en muchas áreas de decisión todavía requiere una demostración.

En cualquier caso, incluso admitiendo su valor, es preciso detenerse a pensar cuál debe ser el lugar que estos mecanismos ocupen. Tal vez deberían concebirse solo como estrategias complementarias en aquellas ocasiones en las que los enfoques colectivos más sociales sean insuficientes. Urge recuperar el espacio comunitario, el ámbito compartido, tanto en la acción como en la reflexión.

Artículo escrito por Amalio Rey

Experto en inteligencia colectiva y fundador de eMOTools.

1 Comentario

  1. Yraima Ramirez

    Buenas tardes a todo el personal que trabaja para esta prestigiosa organización. Excelente artículo, para reflexionar.

    Saludos.

    Responder

Enviar comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Raúl Carrión Estudio, S.L. es la Responsable del Tratamiento de tus datos, con la finalidad de moderar y publicar tu comentario con tu nombre (en ningún caso se publicará tu correo electrónico).
Tienes derecho de acceso, rectificación, supresión, limitación, oposición al tratamiento y portabilidad. Puedes ejercitar tus derechos en [email protected].