En el control de la inteligencia artificial nos jugamos el futuro

Inteligencia Artificial

Elena Labrado Calera
Seguir al autor

Shutterstock / everything possible

Antonio Diéguez Lucena, Universidad de Málaga

Los avances en inteligencia artificial (IA) y en biotecnología, exacerbados en la imaginación popular por el discurso transhumanista, han propiciado que la gobernanza de la tecnología se haya convertido en un problema ineludible en la agenda política. Quizás ya no suene melodramático decir que se trata de un asunto en el que nos jugamos el futuro.

Seguimos, sin embargo, con instituciones y sistemas regulatorios que, a lo sumo, son funcionales en relación con la tecnología de la tercera revolución industrial (revolución digital e informacional), pero que resultan obsoletos para regular las tecnologías de la cuarta (unión de tecnologías digitales, particularmente la IA y las redes de sistemas inteligentes, la robótica, el internet de las cosas, las tecnologías de nuevos materiales, la nanotecnología y las biotecnologías). Esta revolución, a juicio de importantes analistas, ha comenzado ya.

Como bien explica el filósofo Luciano Floridi en su libro The fourth revolution, el reto que tenemos ante nosotros no es tanto el que puedan presentar las innovaciones tecnológicas como tales, sino el que plantea la propia gobernanza de lo digital. Sin embargo, buena parte de la sociedad parece no tomarse demasiado en serio este problema. Algunos legisladores y expertos son conscientes de la magnitud del desafío, pero hay dudas razonables de que puedan ejercer una influencia decisiva en el plano legal e institucional con la premura que sería exigible.

¿De verdad existe una inteligencia artificial?

Hasta el presente, todos los logros en el campo de la inteligencia artificial han sido en el desarrollo de lo que se conoce como “inteligencia artificial particular”, específica o estrecha. Es decir, en la creación de sistemas computacionales que despliegan una gran capacidad, superior incluso a la humana, para realizar tareas muy específicas y bien definidas. Por ejemplo, jugar a un juego con reglas fijas (ajedrez, go, damas, videojuegos), responder a preguntas de cultura general, realizar diagnósticos médicos precisos (enfermedades infecciosas, tipos de cáncer, medicina personalizada), reconocer caras y otras imágenes, procesar e interpretar la voz humana, traducir de un idioma a otro.

En realidad, una parte sustancial de lo que hoy llamamos inteligencia artificial son sistemas de minería de datos, llamados así porque son capaces de analizar cantidades masivas de datos y obtener de ellos patrones desconocidos y lo que podríamos considerar como conocimiento nuevo sobre esos datos.

Por impresionantes que sean estos logros, estas tecnologías no alcanzan la versatilidad y flexibilidad de la inteligencia humana. Los sistemas más inteligentes de los que disponemos en la actualidad no pueden ser utilizados con eficacia en tareas diferentes a aquellas para las que fueron programados. Hay quienes piensan que ni siquiera los deberíamos llamar inteligentes, puesto que la única inteligencia que aparece en ellos es la del programador humano o la de los seres humanos en cuyo contexto social estos sistemas cumplen alguna función.

Se suele decir que una máquina es inteligente cuando es capaz de realizar tareas tales que asumimos que requieren de inteligencia para ser llevadas a cabo. Esta es una definición operativa, puesto que considera que la inteligencia artificial se caracteriza como inteligente por sus resultados. No obstante, la propia caracterización de la inteligencia es un viejo problema cuya discusión continúa. No es fácil dirimir la cuestión, por lo que no es extraño que tampoco haya acuerdo sobre cómo definir la propia inteligencia artificial.

Aceptemos, sin embargo, que en un sentido no meramente metafórico podemos hablar de inteligencia artificial. ¿Debemos entonces temer la creación de una Inteligencia Artificial General (IAG)? ¿Tendremos máquinas superinteligentes que tomarán el control de todo el planeta o seremos capaces de controlarlas nosotros? Son preguntas que se repiten a menudo cuando se menciona el futuro de la IA en los medios de comunicación y en los libros de divulgación, y creo que merecen ser tomadas en serio.

La inteligencia artificial ya es un desafío

No conviene olvidar que, con independencia de si el desarrollo futuro de una inteligencia superior a la humana pudiera representar un peligro para la supervivencia de nuestra especie, lo que por el momento constituye un desafío desde el punto de vista de la salvaguarda de los derechos de las personas son ciertas aplicaciones de la IA cuyos efectos se están viendo ya, como es el caso del uso de nuestros datos personales por parte de sistemas de IA pertenecientes a las grandes empresas tecnológicas, cuyo poder a su vez se acrecienta aceleradamente, o los sesgos y opacidad de los algoritmos usados en la toma de decisiones importantes para la vida de las personas, como la contratación de personal en las empresas o la concesión de créditos bancarios.

Mención aparte merecen los peligros del uso de la IA en la identificación de rostros y en la búsqueda de delincuentes y prevención del delito, en la vigilancia y represión de disidentes políticos, en la creación de armas autónomas, o en la proliferación de los ciberataques, de las noticias falsas y de la desestabilización política mediante la desinformación.

Digamos también, para no dejar una imagen completamente negativa, que la IA está siendo un instrumento muy eficaz en la persecución de delitos financieros, en la protección de la seguridad de las personas, en la potenciación del progreso biomédico, en el logro de una mayor eficiencia energética y en la protección el medio ambiente.

Creo que, para analizar las consecuencias posibles de la inteligencia artificial, tanto favorables como desfavorables, discutir si se trata de inteligencia genuina, similar a la humana, con posibilidad de ser consciente o no, es desviar el foco del auténtico problema.

Lo que me parece que debería preocuparnos ahora no es si podremos crear inteligencia similar a la humana o superior, sino qué podrán hacer con nosotros las máquinas que creemos en el futuro, si es que estas tienen capacidad para tomar decisiones que se consideren en la práctica como inapelables en su autoridad. No es cómo piensen esas máquinas lo que importa, es cómo actúen, puesto que serán agentes con una cierta autonomía, y, sobre todo, cómo las insertaremos en nuestra ordenación social.

Lo relevante en todo esto será que los seres humanos acepten sin supervisión las decisiones que forjen dichas máquinas, así como las consecuencias que esas decisiones puedan tener sobre nuestras vidas, sobre todo si el propio ser humano cede el control.

En definitiva, es necesario promover instituciones y procedimientos que faciliten la defensa de los derechos de los ciudadanos frente a los riesgos potenciales de la inteligencia artificial, como, por ejemplo, la defensa del derecho a la privacidad, así como comenzar a pensar en los requisitos que serían fundamentales para un control efectivo de la IA, porque frente a lo que algunos nos dicen, no hay a priori ninguna razón incontestable para aceptar que el problema del control de la IA sea irresoluble.

Antonio Diéguez Lucena, Catedrático de Lógica y Filosofía de la Ciencia, Universidad de Málaga

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Temas