Este día México –junto con los otros 192 Estados miembros de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco)– adoptó la primera norma mundial sobre la ética de la inteligencia artificial (IA) que, entre otras cosas, prohíbe los marcadores sociales y la vigilancia masiva.
De acuerdo con la Unesco, la norma “tiene como objetivo hacer realidad las ventajas que la IA aporta a la sociedad y reducir los riesgos que conlleva. Garantiza que las transformaciones digitales promuevan los derechos humanos y contribuyan a la consecución de los Objetivos de Desarrollo Sostenible, abordando cuestiones relativas a la transparencia, la rendición de cuentas y la privacidad, con capítulos políticos orientados a la acción sobre la gobernanza de los datos, la educación, la cultura, el trabajo, la atención sanitaria y la economía”.
Dicha norma establece tres obligaciones para los Estados miembros de la Unesco: proteger datos personales, prohibir marcadores sociales y vigilancia masiva, y ayudar a supervisar y evaluar. En el primer tema, se “pide que se actúe más allá de lo que hacen las empresas tecnológicas y los gobiernos para garantizar a las personas una mayor protección, asegurando la transparencia, la capacidad de actuar y el control de sus datos personales”.
La recomendación afirma que “todos los individuos deberían poder acceder a sus registros de datos personales o incluso borrarlos. También incluye acciones para mejorar la protección de los datos y el conocimiento y derecho del individuo a controlar sus propios datos. Y aumenta la capacidad de los organismos reguladores de todo el mundo para hacerla cumplir”.
Respecto de los marcadores sociales y la vigilancia masiva, “prohíbe explícitamente el uso de sistemas de IA para la calificación social y la vigilancia masiva. Este tipo de tecnologías son muy invasivas, vulneran los derechos humanos y las libertades fundamentales y se utilizan de forma generalizada. La recomendación subraya que, a la hora de desarrollar marcos normativos, los Estados miembros deben tener en cuenta que la responsabilidad última y la rendición de cuentas deben recaer siempre en los seres humanos y que no se debe otorgar personalidad jurídica a las tecnologías de IA por sí mismas”.
Respecto de la obligación de ayudar a supervisar y evaluar, “sienta las bases de las herramientas que ayudarán a su aplicación. La Evaluación del Impacto Ético pretende ayudar a los países y a las empresas que desarrollan y despliegan sistemas de IA a evaluar el impacto de esos sistemas en las personas, la sociedad y el medio ambiente. La metodología de evaluación del grado de preparación ayuda a los Estados miembros a evaluar su grado de preparación en términos de infraestructura jurídica y técnica”.
La Unesco agregó que “esta herramienta ayudará a mejorar la capacidad institucional de los países y a recomendar las medidas adecuadas que deben adoptarse para garantizar la aplicación de la ética en la práctica. Además, la recomendación anima a los Estados miembros a considerar la posibilidad de añadir el papel de un funcionario independiente de ética de la IA o algún otro mecanismo para supervisar los esfuerzos de auditoría y seguimiento continuo”.
Para el organismo internacional, “las tecnologías emergentes tales como la IA han demostrado su inmensa capacidad para hacer el bien. Sin embargo, hay que controlar sus impactos negativos, que están exacerbando un mundo ya dividido y desigual. Los desarrollos de la IA deben respetar el estado de derecho, evitar los daños y garantizar que, cuando éstos se produzcan, los afectados tengan a su alcance mecanismos de responsabilidad y reparación”.
Te puede interesar: El Gran Hermano nos vigila y el espionaje electrónico invade nuestras vidas