Un experto de la UMU analiza «el miedo racional a que la IA quiera liquidarnos y sustituirnos»
El profesor Javier Marín-Blázquez aborda algunos de los riesgos e incertidumbres que conlleva para muchos una tecnología tan poderosa como la inteligencia artificial
Pascual Vera
MURCIA.
Viernes, 1 de diciembre 2023, 00:23
Reproducir el comportamiento humano inteligente es una vieja aspiración para la humanidad. Para muchos, dado el importante avance registrado durante los últimos tiempos por la inteligencia artificial, esta aspiración podría estar a la vuelta de la esquina. Son numerosas las incertidumbres, sin embargo, que se ciernen sobre este campo de la informática que se presenta como una auténtica revolución en todos los ámbitos: sanidad, industria, educación, finanzas, atención al cliente, aprendizaje de idiomas... un sistema tan avanzado que asume riesgos, optimiza resultados, nunca se cansa y puede ser el perfecto aliado en tareas cognitivas repetitivas. Pero no todo es luz en la inteligencia artificial, ya que existe en torno a ella algunos riesgos y potenciales abusos, entre ellos, un tema abordado en un anterior reportaje, su efecto revolucionario sobre el empleo y los drásticos cambios en aquellos donde muchas de sus tareas puedan asistirse con IA. A casi todos nos tocará adaptarnos.
Javier Marín-Blázquez, profesor del Departamento de Ingeniería de la Información y las Comunicaciones en la facultad de Informática de la Universidad de Murcia y experto en Inteligencia Artificial, aborda algunos de los riesgos y los miedos que conlleva para muchos la inteligencia artificial.
Armas autónomas
Uno de los peligros más importantes -comenta Marín-Blázquez- son las armas autónomas. El profesor de la UMU reconoce que con inteligencia artificial se podrían fabricar armas que tomasen decisiones y, sin que nadie les diera autorización, mataran a gente tomando la decisión por ellas mismas.
En detección de objetivos y discernir si se encuentran ante un objetivo militar se ha avanzado mucho, pero queda un tercer tema: juzgar si atacar a ese objetivo militar merece la pena. Y eso es un problema, asegura Marín-Blázquez, porque a su juicio esa decisión final nunca debería estar en manos de una máquina ya que no cree que sea moralmente aceptable delegar la decisión de matar personas a una IA.
Influencia en las personas
Otro problema al que se refiere el profesor de la UMU son los sesgos. Cuando empecemos a usar sistemas que usen datos con sesgos, lo que haremos es replicar los mismos sesgos del mundo, y los replicaremos a una enorme escala, lo que puede tener importantes consecuencias.
El profesor reconoce que con inteligencia artificial se podrían fabricar armas que tomasen decisiones autónomas
La IA no tiene sesgos, existen mecanismos para compensar los que hubiera en los datos. A los verdaderos profesionales de la IA se les enseña a detectarlos y contrarrestarlos, pero incluso manejando buenos datos puede ocurrir que las máquinas no hagan las cosas como esperamos. Y puede haber, por supuesto, empresas que introduzcan datos sesgados a propósito para satisfacer sus intereses. Por eso, insiste, «se debe regular el abuso premeditado de estas tecnologías».
También se refiere el profesor a la influencia que puede ejercer la inteligencia artificial sobre las personas usada como herramienta de propaganda masiva, una influencia que no es total, pues la gente es más resistente a la manipulación de lo que se nos hace creer –asegura–, pero bastaría para hacer cambiar las cosas en política, por ejemplo, sobre todo hoy, que se ve que la sociedad está dividida en dos mitades muy similares: «si consiguiéramos un mecanismo con el que se pudiera cambiar la opinión de un cuatro o un cinco por ciento de la población hacia una dirección determinada, la situación podría pasar de una situación a otra totalmente diferente». De nuevo sería un uso malicioso, por parte de personas, de esta tecnología.
«La IA no tiene sesgos», por eso «se debe regular el abuso premeditado de estas tecnologías», asegura el docente
La inteligencia artificial se usa tanto para llegar a conocer debilidades y formas nuevas de atacar como para encontrar nuevos mecanismos de defensa. «En la Universidad de Murcia, por ejemplo, existen muchos profesores e investigadores excelentes trabajando en esos ámbitos, y están consiguiendo logros muy importantes en ciberseguridad», afirma.
¿Y esto para cuándo?
La primera pregunta que se les hace a los investigadores en Inteligencia Artificial sobre este tema es: «¿Es posible crear máquinas que piensen?» La respuesta es, desde luego que sí. Nuestros cerebros crean mentes, y lo artificial y lo natural poseen el mismo sustrato: átomos y leyes químicas y físicas.
La siguiente pregunta: ¿seremos los seres humanos capaces de hacerlo? La historia muestra un incremento progresivo de la complejidad de las máquinas creadas por humanos, asegura el profesor, y tarde o temprano tendremos suficiente.
Y la pregunta del millón, sería: ¿lo vamos a ver nosotros? Asegura el profesor que hasta el año pasado hubiera dicho que no, que el abanico que se daba entre los especialistas en IA para llegar a la IA General oscilaba entre el 2035 y 2200, y la mayoría decía que por el 2100, pero esto era antes de ChatGPT, «ahora muchos expertos creemos que esto se habría acortado drásticamente». Lo conseguido con la tecnología tras Chat GPT, la IA generativa, ha revolucionado todo. Pero es muy difícil precisar ahora si será dentro de 5 años o 20. «Creo que los inviernos de la IA ya son cosa del pasado, ahora la IA cuenta con mucho más dinero para investigar, y eso acelera enormemente los logros. A día de hoy diría: creo que nosotros sí que veremos máquinas que piensan por sí solas».
-
Aprendizaje federado y privacidad
Hay muchos expertos que trabajan para garantizar el carácter anónimo de los datos. Tener muchos y buenos datos permitirá sistemas cada vez mejores. Existen numerosos intentos por conseguir anonimizar los datos, pero no se trata de algo tan sencillo como suprimir el nombre, ya que se podría conocer nuevamente a quién corresponden. El profesor pone como ejemplo algo en lo que se está trabajando en la UMU: los reconocedores de voz que existen en el móvil. Asegura que cuanta más gente les hable, estos van siendo mejores, pero, obviamente, nadie quiere que su voz pueda ser utilizada. Comenta que existe ya un programa que aprende sobre nuestra voz y la procesa de manera que le envía al sistema no nuestra voz, sino lo que ha aprendido de ella. «Ya no somos nosotros, es aprendizaje sobre nuestra voz, por lo que no recogen nunca información personal». «Esto se llama aprendizaje federado, ya está comenzando a desarrollarse, y es una técnica muy potente en el sector médico, defensa y telecomunicaciones».
-
Los peligros del uso perverso de la IA
Comenta Marín-Blázquez que esta tecnología está pensada para ayudarnos, pero a veces se le puede dar un uso perverso. Por ejemplo, cuando se crea un software para reproducir la voz de manera realista. Se puede utilizar por ejemplo para doblar al español la película de alguien con su propia voz: escuchar a Bogart o Morgan Freeman hablando en español con su propia voz, su tono, exactamente igual que lo dice en su idioma. Se puede hacer una película en la que en determinado pasaje un personaje salga joven -siempre con la autorización del actor-, y esto es un adelanto, pero de pronto aparece una aplicación que ha hecho alguien para desnudar el cuerpo de las personas.
Está claro que quien ha realizado esa aplicación ha hecho un uso perverso de una tecnología que no estaba pensada para eso. Es posible, afirma Marín-Blázquez, que aparezcan inteligencias artificiales diseñadas para realizar actos fraudulentos, por supuesto, ¿pero quiere decir esto que tenemos que detener toda la IA con la cantidad de cosas que puede aportar para el bien?, se pregunta Marín-Blázquez, «yo creo que no, lo que sí debe hacerse es regular esos malos usos», afirma.
-
El temor a que las máquinas puedan acabar tomando el control
Otro de los miedos que siempre se ha tenido sobre la inteligencia artificial es ¿Qué pasa si se hace tan inteligente que no la podemos controlar? Esta inteligencia podría llegar a ser súper inteligencia, como ocurrió con Hal 9000, en el que el problema se «soluciona» desconectándolo. No es mala idea disponer siempre de una forma de apagarlo, aunque una superIA podría encontrar la forma de evitarlo.
Norbert Wiener, considerado el padre de la Cibernética decía que; «Si usamos, para alcanzar nuestros propósitos, una agencia mecánica con cuya operación no podemos interferir de manera efectiva... más nos vale estar completamente seguros de que el propósito introducido en la máquina es el propósito que realmente deseamos». Pero podría llegar un día en el que esto no fuera así: «Siempre existirá el miedo a que, cuando la súper inteligencia artificial llegue, el sistema quiera liquidarnos y sustituirnos». A juicio de Marín-Blázquez este miedo tiene más que ver con el tema de cómo somos particularmente los seres humanos, nuestra forma de actuar, pero es cierto que «la visión de que la inteligencia va a ser tan buena y tan lista que no va a ir nunca contra las personas es un tanto naif». Debemos asegurarnos y diseñarla para que sea así.
La ficción y la IA
El miedo a que las máquinas intenten tomar el control está presente en toda la literatura de ciencia ficción y, por supuesto en el cine, desde Isaac Asimov, el mito judío del Golem y otros autómatas, o Mary Shelley en Frankenstein. En todas las obras la criatura, la inteligencia, intenta tomar el control, como ocurre en 'Terminator'.
Asegura el profesor que, en todas las películas de Hollywood, la IA siempre tiene alguna disfuncionalidad mental, siempre quiere conquistar el mundo, odia a los seres humanos, o está obsesionada por convertirse en humano, ninguna está «sana»… algo lógico, afirma el profesor, porque las películas no hablan de las máquinas, «de quienes tratan realmente es sobre nosotros y nuestros fantasmas, proyectados en las máquinas».