Tecnología vs Humanidad de Gerd Leonhard: ¿con o contra? (y III)

No deberíamos permitir máquinas que no se puedan distinguir fácilmente de seres humanos


Roberto Espinosa
Tecnología vs Humanidad de Gerd Leonhard:...

Rematamos la reseña del Tecnología vs Humanidad de Gerd Leonhard. Primero, nos centramos en las ideas generales del libro. Después, en aquellas ideas que están sujetas a un mayor debate, y que el propio autor fomenta. Y para finalizar, mi objetivo es profundizar en alguna de las ideas que se proponen en el libro con el objetivo de minimizar los riesgos del momento de explosión tecnológica en el que vivimos.

Sin duda la propuesta estrella de Leonhard es el Consejo Global para la Ética Digital (CGED). Este Consejo velaría por encontrar el nivel adecuado entre la precaución y la proacción. El equilibrio que permita seguir innovando y avanzando tecnológicamente pero evitando situaciones en las que el desarrollo tecnológico pudiera poner en peligro a la propia humanidad.

El propio autor sugiere que este Consejo tendría que estar vinculado, de alguna manera, a Naciones Unidas, y tiene mucho sentido. Quizá un espejo en el que mirarse podría ser el Organismo Internacional de Energía Atómica. A pesar de sus limitaciones, ha conseguido que una tecnología con el potencial de acabar con la humanidad, haya estado bajo control durante décadas.

En este sentido, no hay que empezar desde cero. Hace 3 años, una serie de expertos en Inteligencia Artificial como Elon Musk y Stephen Hawking, firmaron una carta que se trabajó desde el Future of Life Institute. Siguiendo el espíritu de esa carta, Elon Musk junto a otros magnates como Peter Thiel lanzaron Open AI, una fundación con unos objetivos muy similares al CGED que propone Leonhard.

En mi humilde opinión, Leonhard se centra mucho en la investigación, y poco en las empresas que realizan o utilizan esa investigación. Si hay algo que hemos aprendido en estos años de explosión de las redes sociales, y sus consecuencias en cuanto a la seguridad de nuestros datos personales, es que el problema no es la tecnología en sí. El problema son los incentivos tan grandes que tienen las empresas por controlar nuestros datos.

Ya se han levantado algunas voces alertando cómo los datos son la base sobre los que los grandes titanes de la tecnología están construyendo posiciones que si no son monopolísticas, se le parecen bastante. De hecho, las grandes empresas tecnológicas actuales, mejoran sustancialmente sus beneficios a un ritmo muy superior a como lo  consiguieron empresas como Standard Oil o incluso la East India Company, que tuvieron muchos problemas con las autoridades de la competencia.

Por eso el debate está servido. ¿Hay que hacer algo? En caso afirmativo, ¿el qué? Multas, regulación, desmembrarlas (como se hizo con Bell System )… Una de las sugerencias que me parece más interesante sería la de regular a estas empresas como si fueran proveedoras de servicios públicos.

Explorar la opción de que las empresas —no sólo las grandes— que gestionen datos personales sean tratadas como empresas gestoras de servicios públicos, podría entroncar con un derecho del que habla mucho Leonhard en su libro y con el que no puedo estar más de acuerdo: el derecho al anonimato.

El anonimato se ha convertido en un bien muy escaso en el mundo digital, pero estamos a punto de que sea imposible también en el mundo físico. Este ataque al anonimato que estamos viviendo no es tanto por los Estados (que también), en su labor de seguridad hacia los ciudadanos, sino por las empresas.

Muchas empresas han hecho un importante negocio sacando del anonimato a sus usuarios. Con la excusa de querer darnos un mejor servicio, consiguen recopilar datos de todo tipo: demográficos, posición en tiempo real, gustos sociales, biométricos, lugares que visitamos, tipo de compras… El nirvana para estas empresas es un mundo donde nos identifican constantemente como clientes, y saben tanto de nosotros que pueden anticiparse e influenciar sobre nuestras decisiones.

Con cierta perspectiva, parece extraño que hayamos aceptado que uno puede comprarse unos zapatos en una tienda real de una forma totalmente anónima, pero para comprarlos en una tienda digital tengamos que dar acceso a muchísimos datos personales casi de forma permanente.

Esto se podría solucionar si las empresas solo tuvieran acceso a un tipo de datos, y no pudieran cruzarlos con otros. De la misma manera que no se permite a las empresas de transporte de gas dedicarse a la gestión de agua potable, ¿por qué no hacemos lo mismo con los datos? ¿Por qué necesitamos darle nuestra localización en tiempo real a una empresa que gestiona nuestras fotografías personales? ¿O por qué la empresa con la que realizamos búsquedas en internet también tiene acceso a nuestros correos electrónicos?

Las normativas que aplican a las empresas de servicios públicos se justifica principalmente porque son monopolios naturales. En el mundo digital siempre hemos hablado de los efectos de red (network effect), donde las inercias generan que el ganador en el mercado se lo queda todo. En definitiva, también hablamos de monopolios naturales.

Soy consciente de la utilidad y los beneficios de tener mis diferentes datos personales compartidos con los diferentes servicios de una misma empresa. Sin embargo, cada vez soy más consciente de los peligros que eso conlleva. Y ante un futuro de Inteligencia Artificial potente y ubicua al que vamos, los peligros son aún más grandes.

Separar de forma estanca nuestros datos biométricos, médicos, sociales, demográficos, posición en tiempo real (entre otros) nos devolvería cierto control sobre nuestros datos, aumentaría nuestra seguridad digital y limitaría el tamaño de estas empresas de forma natural.

Además, cuando los sistemas de Inteligencia Artificial sean aún más potentes, sólo podrán trabajar en un grupo de datos cerrado que creo que limitaría la posibilidad de algunas de las distopías que se describen en el libro.

Hablando del futuro de la Inteligencia Artificial y su representación en robots físicos o virtuales, hay un aspecto muy importante que quizá no está de forma expresa en el libro de Leonhard, pero subyace en muchas de sus preocupaciones sobre el futuro y como las máquinas podrían incluso suplantarnos en las relaciones personales. En ese sentido es difícil no acordarse de la espectacular y a la vez terrorífica demostración que hizo Google no hace mucho de Duplex (en su momento hablé de ello ).

Sin quitar un ápice del mérito a Google con una tecnología, simplemente alucinante, creo que la demostración ejemplifica muchos de los peligros a los que Leonhard se refiere en su libro. Por eso, hay varios organismos internacionales (IEEE o la BSI) que llevan tiempo avisando sobre los riesgos de la antropormifización innecesaria: diseñar sistemas físicos o digitales que no puedan ser diferenciados de un ser humano, o peor, que estén diseñados para engañar a los seres humanos. Esto debería de ser una línea roja, claramente algo fuera de los límites.

Es probable que haya situaciones en que sea deseable un sistema antropomórfico (físico o digital). A bote pronto se me ocurre entornos de educación especial. Pero más allá de aplicaciones muy limitadas y claras, y además con una funcionalidad también limitada a esa aplicación,

no deberíamos permitir máquinas que no se puedan distinguir fácilmente de seres humanos.

Y hablando de robots, imposible no mencionar las Leyes de la Robótica de Asimov. Mencionadas también, aunque de pasada, por Leonhard. Seguramente el trabajo más importante que tendría ese CGED  sería definir el equivalente en el mundo real de esas Leyes.

Uno ni se puede imaginar lo difícil que será definir e implementar unas leyes de obligado cumplimiento a todas las máquinas. Unas leyes que no se pudieran saltar, cambiar, ni adaptar en todos los lugares del mundo y en todos los dispositivos inteligentes. Probablemente las normativas en las que mirarse podrían ser las medioambientales, fundamentalmente las de prohibición de determinados materiales tóxicos.

Y seguramente no será tan complicado ponerse de acuerdo en las Leyes como en implementarlas de forma efectiva y segura. En todo caso, en los años 50 el reto de conseguir que la humanidad no desapareciera en una guerra nuclear probablemente era parecido a este.

Quizá a alguien le pueda parecer exagerada la comparación, pero personalmente creo que hay que tomarlo en serio. Cabezas como la de Stephen Hawking creía en la posibilidad de una superinteligencia artificial, y que podría ser peligrosa para la humanidad, sin olvidar por supuesto a Gerd Leonhard, cuyo libro, al que le he dedicado tres artículos creo que es un buen punto de partida para invitar a la reflexión.

@resbla

Mostrar comentarios (0)

Comentarios

Artículos relacionados

Economía

Industria 4.0: Será una revolución industrial sólo si se centra en las personas

Será por un tema cultural. O por haber crecido en un territorio donde dominaba el sector servicios y no tener contacto profundo con el sector industrial más tradicional. Un...

Publicado el por Juan Sobejano
Economía

El poder de lo pequeño

Mucha gente no hace muchas cosas porque no las ve accesibles. No forman parte de su realidad. Y esto sucede así porque pasan por alto que un gran éxito no es otra cosa que la...

Publicado el por Francisco Alcaide Hernández