FCC aprueba prohibición de llamadas automáticas fraudulentas con IA
Esta acción busca combatir el uso de tecnología de “deepfake”, que podría representar una amenaza para la seguridad electoral y aumentar el riesgo de fraude
CIUDAD DE MÉXICO.- La Comisión Federal de Comunicaciones (FCC) anunció medidas para prohibir las llamadas automáticas fraudulentas con voces falsas generadas por inteligencia artificial (IA).
Esta acción busca combatir el uso de tecnología de “deepfake”, que podría representar una amenaza para la seguridad electoral y aumentar el riesgo de fraude. De acuerdo con información de CNN Business, el voto unánime de la FCC amplía las reglas existentes contra las llamadas automáticas para abarcar las llamadas no solicitadas con voces deepfake, considerándolas como “artificiales” según la ley federal de telemercadeo.
La presidenta de la FCC, Jessica Rosenworcel, enfatizó que estas medidas proporcionan a los fiscales generales estatales herramientas legales adicionales para perseguir a los infractores que utilizan voces generadas por IA para engañar a los ciudadanos.
Toma de medidas contra deepfake
La decisión se produce después de incidentes recientes, como una llamada automática falsa que se hizo pasar por el presidente Joe Biden en las primarias de New Hampshire. La FCC establece que las llamadas automáticas que utilicen voces generadas por IA deben obtener consentimiento previo de la parte llamada.
Te puede interesar: Gemini: Google cambia oficialmente el nombre de su IA y lanza su primera aplicación
Expertos, sin embargo, señalan que se necesitarán esfuerzos adicionales tanto gubernamentales como de la industria para proteger las elecciones y combatir las estafas relacionadas con la IA, como marcas de agua en contenido generado por IA y mecanismos de divulgación y consentimiento más sólidos por parte de las empresas de servicios públicos y proveedores de telecomunicaciones.