Carissa Véliz: «No se puede pedir al ciudadano que sea experto en privacidad, hay que regular»
«La ética puede complementar mucho a la ordenación de los avances tecnológicos, como ya ocurre en el caso de la medicina»
La filósofa hispano-mexicano-británica Carissa Véliz, profesora en el Instituto de Ética en Inteligencia Artificial en la Universidad de Oxford, es una voz clave ... en la defensa de la protección de datos y ética aplicada a la inteligencia artificial. La experta, que asesora a los gobiernos de Estados Unidos, España y Reino Unido en estos asuntos, dejó algunas ideas al respecto en su paso por Murcia el pasado jueves, donde participó como ponente en la jornada de conferencias de los Premios GENIO Innovación de la industria publicitaria que organiza Vocento.Medios con la asesoría estratégica de SCOPEN.
–En un entorno cada vez más rodeado de objetos conectados que recopilan información de los usuarios, ¿a qué riesgos nos enfrentamos los ciudadanos?
–Hay muchos, desde que te roben la identidad, que es un crimen cada vez más común y que es bastante grave, hasta que te discriminen cuando pidas un trabajo o busques un apartamento, que te humillen públicamente o que te extorsionen. Y luego están los riesgos colectivos, que son igual de importantes. Aunque tengas la suerte de que no te roben la identidad, si te roban la democracia, si roban unas elecciones, te va a afectar como individuo. Y por último, están también los riesgos de seguridad nacional. Hemos diseñado internet para poder recolectar muchos datos, y eso lo hace muy inseguro.
«Yo a estas personas, tras el escaneo de iris de Worldcoin, no les confiaría ni mi nombre»
–¿Hablamos de riesgos futuros?
–Son cosas que están sucediendo ya. El robo de la identidad es habitual, y la discriminación yo creo que también, lo que pasa es que es muy difícil probarlo, porque cuando tú pides un trabajo y te lo niegan, no investigas qué tipo de datos tenía esa empresa de ti, e incluso si lo investigas, la empresa siempre puede decir que el otro candidato estaba mejor cualificado. En cuestión de los riesgos colectivos, vimos Cambridge Analytica. Es un hecho controvertido si lograron influir en las elecciones o no, pero el hecho de que lo hayan intentado y que no hayamos cambiado las reglas para que eso no suceda ya es increíblemente preocupante.
–¿Qué opina de iniciativas como Worldcoin, que pagaba por escanear el iris a los ciudadanos? La Agencia Estatal de Protección de Datos acaba de suspender su recolección de información personal en España.
–Me parece una decisión acertada, porque el riesgo es muy alto y los beneficios son muy bajos. Se estaban vendiendo datos por precios muy bajos que, incluso si fueran más altos, no merecerían la pena. El iris es algo increíblemente sensible porque no solamente te identifica como persona, sino que también permite inferir cuestiones cognitivas y emocionales. Además, sabemos que esta empresa ha mentido en el pasado, y la llevan personas a las que yo no confiaría ni mi nombre. Aunque se supone que están intentando crear una manera de identificar a la gente de manera privada, de momento, lo que tienen es una gran base de datos que es muy peligrosa para la privacidad.
–Aquí en Murcia hemos visto colas de gente para escanearse el iris por 70 euros. ¿Somos los ciudadanos parte del problema?
–[Se echa las manos a la cabeza]. Sí y no. Por supuesto, mejoraría el mundo si estuviéramos mejor informados. Por eso he escrito mi libro 'Privacidad es poder' y por eso doy este tipo de charlas, pero al final necesitamos regulación, porque no es normal que se nos pida que seamos expertos en algo tan abstracto como los datos personales. Yo, cuando me subo a un avión, no tengo que mirar si funcionan las turbinas. Uno de los problemas a los que nos enfrentamos es que los efectos de la pérdida de privacidad se ven a muy largo plazo. Si te dan los 70 euros que te vienen bien para ir a una cena, no ves que dentro de seis meses es posible que te enfrentes a un robo de la identidad que te pueda costar 1.500 euros. Y si te pasa, nunca vas a hacer esa conexión entre los datos que diste y las consecuencias que tuvieron.
«La recolección de datos tiene muchos riesgos: te pueden discriminar al ir a pedir un trabajo»
–La inteligencia artificial está entrando en nuestras vidas como una avalancha y llegando a más aplicaciones, contextos y dispositivos. ¿Qué futuro nos depara? ¿Se han ponderado suficientemente los riesgos que implica?
–Creo que no, y eso es parte del desafío de nuestra generación. A dónde nos va a llevar el futuro no está escrito. La realidad es que depende de nosotros.
–Europa acaba de aprobar precisamente la primera ley que regula la inteligencia artificial. ¿Existe una posibilidad real de que las administraciones protejan a los ciudadanos? Existe la sensación de que las regulaciones llegan siempre tarde.
–Es normal que vayan más lento. El reglamento general de protección de datos que tenemos clarísimamente no es suficiente, pero sin él no tendríamos nada, y sigue siendo un hito histórico. Creo que siempre va a ser un desafío regular los avances tecnológicos, y creo que la ética puede complementar mucho a la regulación como ocurre en el caso de la ética médica, que siempre va un paso más allá de la regulación y es más flexible y se mueve más rápido.
–Hay una frase que suele repetirse en la industria: Estados Unidos innova, China fabrica y Europa regula. ¿Jugar ese rol es una desventaja para los europeos?
–Sería mejor si también tuviéramos empresas competitivas de primer nivel, pero no hay que menospreciar la gran contribución que hace Europa regulando, porque de ello se benefician ciudadanos de todo el mundo, al forzar a que las empresas cambien de prácticas. Es increíble que un mercado de 500 millones de personas, pero que es económicamente importante para las empresas, pueda hacer eso. Es un tipo de poder que hay que valorar. Al mismo tiempo, me gustaría ver empresas europeas que innoven para contribuir a la democracia y no para erosionarla. En ese sentido, un ejemplo muy bueno es Proton, una empresa que tiene un email privado, una VPN y un espacio en la nube, y que es una alternativa muy bien hecha.
«Me preocupa la dificultad de las fuentes para contactar con los periodistas anónimamente»
–¿Cómo ve el futuro del periodismo en un momento en el que es tan fácil generar mentiras cada vez más sofisticadas? Cada vez nos encontramos con más imágenes, audios y vídeos falsos o manipulados y con 'bots' que difunden información falsa.
–Es un grandísimo problema, pero lo hemos resuelto en el pasado. Lo resolvimos teniendo editores que podían verificar las fuentes y teniendo confianza en los periódicos. El desafío de los periódicos es que la gente tenga suficiente confianza en ellos para que sigan ejerciendo como los guardianes de la verdad que han sido durante cientos de años. Aunque a mí me preocupa más que, para que haya un buen periodismo de investigación, las fuentes tienen que poder contactar anónimamente con los periodistas, y eso es cada vez más difícil, lo que es un problema. ¿Usas Whatsapp?
–Sí.
–Como periodista deberías usar Signal, que es gratis y no recolecta datos.
¿Tienes una suscripción? Inicia sesión