Especialistas de la UE piden que no se utilice la inteligencia artificial para vigilancia masiva

La Comisión Europea ha solicitado a especialistas sobre la inteligencia artificial el primer informe para la implementación de la futura estrategia de la IA en la Unión Europea. Aunque se trata de una serie de pinceladas sin consecuencias jurídicas, pone de relevancia las recomendaciones de los 52 expertos que componen este grupo de estudio dentro de la Unión Europea.



El High-Level Expert Group on Artificial Intelligence, es una agrupación de expertos en diversos campos compuesto por representantes de la universidad, la sociedad civil y de diversas industrias. Se trata del primer gran informe sobre Inteligencia Artificial que recibe la comisión dentro de la iniciativa del Mercado Digital Único, por lo que las recomendaciones de estos expertos pueden tener un impacto significativo en la próxima gran regulación europea.

El High-Level Expert Group on Artificial Intelligence ha planteado cuestiones relacionadas con todos los campos: desde seguridad jurídica hasta automatización industrial, por lo que en las casi 20 páginas del informe oficial nos podemos hacer una idea de lo amplio que es el ámbito de actuación del grupo.

De esta forma, ha enviado a la Comisión un borrador de lineamientos de ética de AI, que cubren temas como la imparcialidad, la seguridad, la transparencia, el futuro del trabajo, la democracia y, de manera más general, el impacto en la aplicación de la Carta de los Los derechos fundamentales, incluida la privacidad y la protección de datos personales, la dignidad y el consumidor.

La recomendación más interesantes y que puede tener mayor impacto es, sin duda, la que tiene que ver con el uso de la IA para la vigilancia de ciudadanos, una tendencia sin precedentes en China que muchos ya piden aplicarse en Europa, cuyas primeras pruebas de esta vigilancia masiva la hemos visto en algunos encuentros deportivos, como la final de la Champions League.

El grupo pide a la comisión, precisamente, que se evite lo que sucede en China: prohibir la calificación de personas de forma masiva utilizando la IA, imponer normas claras y estrictas para la vigilancia con fines de seguridad nacional y otros fines en el interés público o nacional de acuerdo con la normativa de la UE y la jurisprudencia. También pide que, en caso de que se utilicen estos sistemas de vigilancias, desarrollar formas confiables para hacer esto donde sea legal, necesario y proporcionado, y asegurarse de que esto no se utiliza de manera pueda socavar la oposición (política) o los procesos democráticos.

El grupo también hace las siguientes recomendaciones de diversos campos, pero todos aplicables al uso de la IA:


  • Asegurar la aplicación de los Lineamientos de ética para sistemas de AI confiables a AI implementados por el sector público.
  • Financiar y facilitar el desarrollo de herramientas de inteligencia artificial que puedan ayudar a detectar sesgos indebidos y prejuicio en la toma de decisiones gubernamentales.


Se trata de un primer paso muy importante para el uso ético de la IA, y que puede resultar en una regulación mucho más acorde a los intereses de los ciudadanos.

Fuente: Hypertextual