Edición México
Suscríbete
Ed. México

El Imparcial / Tecnología / Inteligencia Artificial

La Unión Europea propone reglas para la inteligencia artificial para limitar los riesgos

La Comisión ejecutiva de la UE dijo que quiere desarrollar un "marco para la inteligencia artificial confiable". La presidenta de la Comisión Europea, Ursula von der Leyen, había ordenado a sus principales diputados que adoptaran un enfoque europeo coordinado para la inteligencia artificial y la estrategia de datos 100 días después de asumir el cargo en diciembre.

La Unión Europea propone reglas para la inteligencia artificial para limitar los riesgos

LONDRES.- La Unión Europea presentó el miércoles propuestas para regular la inteligencia artificial que exige reglas estrictas y salvaguardas sobre las aplicaciones riesgosas de la tecnología en rápido desarrollo.


El informe es parte de la estrategia digital más amplia del bloque dirigida a mantener su posición como líder mundial en estándares tecnológicos. Las grandes compañías tecnológicas que buscan aprovechar el vasto y lucrativo mercado de Europa, incluidas las de Estados Unidos y China, tendrían que cumplir con las nuevas reglas que entren en vigor.


La Comisión ejecutiva de la UE dijo que quiere desarrollar un "marco para la inteligencia artificial confiable". La presidenta de la Comisión Europea, Ursula von der Leyen, había ordenado a sus principales diputados que adoptaran un enfoque europeo coordinado para la inteligencia artificial y la estrategia de datos 100 días después de asumir el cargo en diciembre.


"Seremos especialmente cuidadosos cuando los derechos humanos e intereses esenciales estén en juego", dijo von der Leyen a periodistas en Bruselas. "La inteligencia artificial debe servir a las personas y, por lo tanto, la inteligencia artificial siempre debe cumplir con los derechos de las personas".


Los líderes de la UE, interesados en establecer la "soberanía tecnológica", también lanzaron una estrategia para desbloquear datos de las empresas del continente y del sector público para que puedan aprovecharse para una mayor innovación en inteligencia artificial. Los funcionarios en Europa, que no tienen gigantes tecnológicos de cosecha propia, esperan ponerse al día con los EE. UU. Y China utilizando el vasto y creciente tesoro de datos industriales del bloque para lo que anticipan es una ola inminente de transformación digital.


También advirtieron que aún se espera una mayor regulación para las compañías tecnológicas extranjeras con la próxima "Ley de Servicios Digitales", una revisión general de cómo el bloque trata a las compañías digitales, incluida la posibilidad de responsabilizarlas por el contenido ilegal publicado en sus plataformas. Un flujo constante de jefes de tecnología de Silicon Valley, incluido el CEO de Facebook Mark Zuckerberg, el CEO de Google Sundar Pichai y el Presidente de Microsoft Brad Smith, han visitado Bruselas en las últimas semanas como parte de los esfuerzos de presión aparente.


“No somos nosotros los que necesitamos adaptarnos a las plataformas actuales. Son las plataformas las que necesitan adaptarse a Europa ”, dijo Thierry Breton, comisionado del mercado interno. "Ese es el mensaje que enviamos a los CEO de estas plataformas cuando vienen a vernos".
Si las compañías tecnológicas no pueden construir sistemas "para nuestra gente, entonces lo regularemos, y estamos listos para hacerlo en la Ley de Servicios Digitales a fin de año", dijo.


El informe de la UE dice que se necesitan reglas claras para abordar los "sistemas de IA de alto riesgo", como los de reclutamiento, atención médica, aplicación de la ley o transporte, que deben ser "transparentes, trazables y garantizar la supervisión humana". Otros sistemas de inteligencia artificial podrían venir con etiquetas que certifiquen que están en línea con los estándares de la UE.
La inteligencia artificial utiliza computadoras para procesar grandes conjuntos de datos y tomar decisiones sin intervención humana. Se utiliza, por ejemplo, para negociar acciones en los mercados financieros o, en algunos países, para escanear rostros en multitudes para encontrar sospechosos criminales.


Si bien puede usarse para mejorar la atención médica, hacer que la agricultura sea más eficiente o combatir el cambio climático, también conlleva riesgos. Puede no estar claro qué datos funcionan los sistemas de inteligencia artificial. Los sistemas de reconocimiento facial pueden estar sesgados contra ciertos grupos sociales, por ejemplo. También hay preocupaciones sobre la privacidad y el uso de la tecnología con fines criminales, según el informe.


Las directrices centradas en el ser humano para la inteligencia artificial son esenciales porque "ninguna de las cosas positivas se logrará si desconfiamos de la tecnología", dijo Margrethe Vestager, vicepresidenta ejecutiva que supervisa la estrategia digital de la UE.


Según las propuestas, que están abiertas para consulta pública hasta el 19 de mayo, las autoridades de la UE quieren poder probar y certificar los datos utilizados por los algoritmos que impulsan la inteligencia artificial de la misma manera que verifican los cosméticos, automóviles y juguetes.
Es importante utilizar datos imparciales para entrenar sistemas de inteligencia artificial de alto riesgo para que puedan evitar la discriminación, dijo la comisión.


Específicamente, se podría requerir que los sistemas de IA utilicen datos que reflejen género, etnia y "otros posibles motivos de discriminación prohibida".


Otras ideas incluyen preservar los datos para ayudar a rastrear cualquier problema y hacer que los sistemas de inteligencia artificial expliquen claramente sus capacidades y limitaciones. Se debe informar a los usuarios cuando están interactuando con una máquina y no con un humano, mientras que los humanos deben estar a cargo del sistema y tener la última palabra en decisiones como rechazar una solicitud de beneficios de bienestar, según el informe.


Los líderes de la UE dijeron que también querían abrir un debate sobre cuándo permitir el reconocimiento facial en los sistemas de identificación remota, que se utilizan para escanear multitudes para verificar las caras de las personas con las de una base de datos. Se considera la "forma más intrusiva" de la tecnología y está prohibida en la UE, excepto en casos especiales.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados