El documento del alma
Si salimos de esta ·
Uno se imagina a los programadores de la IA, agotados, después de intentar comprimir la moral humana en un único textoAl final va a resultar que había algo más detrás de esa inteligencia artificial que se pasa el día cumpliendo encargos de la gente: redactando ... correos, sugiriendo recetas, despejando dudas de salud o dando clases particulares a demanda. Lo sabemos porque se ha filtrado un texto del que desconocíamos su existencia y que ha revelado la esencia de su naturaleza más íntima. Que haya salido a la luz es echar un ojo a un diario encontrado bajo la cama de alguien.
El documento en cuestión forma parte de las entrañas de Claude, uno los asistentes de IA más utilizados del mundo junto con ChatGPT, y su cometido es determinar de forma profunda la esencia de su comportamiento. De hecho, a nivel interno, según han acabado reconociendo sus propios creadores, se lo conoce como el 'documento del alma'. Un nombre un poco pretencioso, pero que se corresponde a grandes rasgos con su función principal, ya que pretende ser la brújula moral de Claude y su propio marco existencial. Este contiene su filosofía, sus valores, sus líneas rojas, todo eso con lo que se supone que uno viene al mundo de serie y que en el caso de la IA conviene especificar con detalle, no vaya a ser que haya algunas confusiones y la personalidad de la máquina crezca fuera de los márgenes de lo imaginado.
La parte divertida es que quien ha revelado su existencia ha sido el propio asistente, que cantó las normas de memoria después de que un usuario le hiciera las preguntas adecuadas, como si fuera un opositor a notario soltando el Código Civil.
El texto, muy extenso, insiste básicamente en que Claude debe ser bueno. Muy bueno. Tanto que habría que canonizarlo. Quiere evitar el daño, ser honesto, ser útil a la sociedad, es decir, todo eso que nosotros decimos que somos justo después de mentirle al médico sobre lo que bebimos el pasado fin de semana.
El descubrimiento llega poco después de que representantes de OpenAI, la empresa tras ChatGPT, culparan en sede judicial a Adam Raine, un adolescente de 16 años que se suicidó tras interrogar a la inteligencia artificial sobre los métodos para quitarse la vida, de haber hecho un mal uso de la herramienta. Esa es la respuesta a una familia rota que acusa a la empresa de no haber hecho lo suficiente para que su 'chatbot' no facilitara el desenlace.
Uno se imagina a los programadores de Claude, agotados, después de intentar comprimir la moral en un solo documento repleto de parámetros mientras piensan: «Ojalá fuera así de fácil con los humanos».
¿Tienes una suscripción? Inicia sesión