Ética para la IA
No cabe duda de que la inteligencia artificial (IA) pretende conformar máquinas dotadas de inteligencia similar a la humana. Seguramente, es uno de los objetivos ... más ambiciosos jamás formulados. Pero no es novedad. Desde la Ilíada de Homero pretendemos máquinas autónomas de factura humana, capaces de emular a las personas. Puede ser el proyecto científico-tecnológico equiparable a la explicación del origen de la vida en el Universo o desentrañar la estructura de la materia. El reto más ambicioso sigue siendo la adquisición de conocimientos propios del sentido común. Es la clave para poder disponer de una inteligencia artificial de tipo general.
Uno de los planteamientos más efectivos consiste en aplicar la metodología propia de las redes neuronales, consistente en situar las máquinas en entornos donde desarrollen experiencias que le otorguen ese sentido común, aprendiendo con mecanismos propios del desarrollo mental en el que los sistemas perceptivos y motores perfilan las interacciones con el entorno, aportando la componente cognitiva que requiere la inteligencia. Este tipo de aprendizaje es un reto de envergadura. Las capacidades más complicadas son las asociadas a los entornos que no tienen restricciones, desde la percepción visual al tratamiento del lenguaje natural, comprendiéndolo, así como todo lo relacionado con el sentido común. Es preciso representar el conocimiento de forma apropiada resolviendo la codificación de la información capaz de abordar objetos, acciones, descripción de situaciones y toda suerte de relaciones entre ellos. No es más que aproximarnos al tratamiento de la información que manejamos los humanos, muy complejo, a poco que miremos un poco de cerca los procesos en los que nos sumergimos los humanos. Esto requiere de nuevos algoritmos apropiados a las circunstancias. Todas las áreas de actividad humana son susceptibles de incidencia de la IA y todos los procesos: energía, educación, automatización, transporte, etc., así como productividad, seguridad, ámbito doméstico, etc.
No cabe duda de que si bien las inteligencias pudieran ser parecidas, sin importar mucho quién aventaja a quién, lo que resulta relevante es que la carcasa, el cuerpo, en el que se ubican las inteligencias humana y artificial no son los mismos. Los requerimientos de uno y otro no son parecidos y parece claro que, de partida, los valores de ambas inteligencias no tienen por qué tener nada en común. Esto es lo que limita de raíz la autonomía otorgable a las máquinas. Más, todavía, porque no cabe duda de que el desenvolvimiento en ámbitos de los que surgirá ese sentido común, en correspondencia a lo que acontece con la inteligencia humana, depende del perfil que se cierne en el escenario para desenvolverse la máquina. El perfil de todas y cada una de las capacidades de las máquinas tiene asociada la responsabilidad correspondiente en cuanto se le otorgue autonomía. La toma de decisiones por un sistema requiere una explicación cabal y una necesaria exposición de las razones que las justifican. Es preciso dilucidar con claridad las responsabilidades, dado que el paso de un sistema bajo control humano a uno autónomo, como es el que actúa mediante el concurso de la IA, exige una atribución clara y una identificación de los responsables. El papel del ser humano debe quedar nítidamente delimitado y es preciso disponer de reglas claras que delimiten el comportamiento de los sistemas artificiales autónomos gobernados mediante IA.
La toma de decisiones conlleva poner en juego aspectos morales. El dilema del tranvía es un ejercicio intelectual que ejemplifica bien el caso de la conducción autónoma al tener que tomar la decisión de atropellar a una persona o a cinco, cuando solamente hayan estas posibilidades, ¿actuamos o no? Un estudio del MIT puso de relieve que la ética varía mucho de un país a otro. Concreta que los países asiáticos no tienen como prioridad salvar a los más jóvenes, ni es concluyente el número de personas. Los niveles económico y cultural inciden de forma decisiva. La IA precisa criterios éticos, pero la respuesta colectiva no garantiza una solución óptima. Es un dilema complejo, que requiere un sereno debate. Las empresas privadas, tipo Google, Amazon, etc., disponen de muchos datos, no se les puede excluir del diseño de procedimientos para investigar los problemas reales y las medidas de protección efectivas, pero no se les puede permitir dirigirlos, como propone Blekler. Asegurar que la IA pueda ser justa y beneficiosa, debe financiarse con recursos públicos, por transparencia, independencia y necesidad de imparcialidad. ¡Ya va siendo urgente!
¿Tienes una suscripción? Inicia sesión