Edición México
Suscríbete
Ed. México

El Imparcial / Tecnología / inteligencia artificial

Alertan empleados de OpenAI y Google DeepMind sobre los peligros de la IA avanzada

La carta subraya que no se puede confiar en que estas empresas.

Alertan empleados de OpenAI y Google DeepMind sobre los peligros de la IA avanzada

CALIFORNIA.-En un esfuerzo por concienciar sobre los peligros de la inteligencia artificial (IA) avanzada, varios empleados actuales y antiguos de OpenAI y Google DeepMind han publicado hoy una carta abierta. En ella advierten sobre los riesgos asociados con el desarrollo de la IA y la falta de supervisión efectiva de las empresas que trabajan en esta tecnología.

Según los firmantes, los riesgos incluyen la exacerbación de las desigualdades existentes, la manipulación y desinformación, y la pérdida de control sobre los sistemas autónomos de IA, lo que podría llevar, según la carta, a la extinción humana. La carta subraya que no se puede confiar en que estas empresas compartan esta información de manera voluntaria, y por lo tanto, los empleados actuales y antiguos se sienten obligados a hablar.

En ausencia de una supervisión gubernamental efectiva, los empleados actuales y anteriores se consideran entre los pocos que pueden responsabilizar a estas empresas ante el público. Sin embargo, amplios acuerdos de confidencialidad les impiden expresar sus preocupaciones, salvo a las propias compañías que pueden no estar abordando estos problemas adecuadamente. Las protecciones habituales para denunciantes son insuficientes porque se enfocan en actividades ilegales, mientras que muchos de los riesgos mencionados aún no están regulados.

Los empleados piden a las empresas de IA que implementen protecciones sólidas para quienes denuncien los riesgos de la IA, incluyendo:

  • No crear ni hacer cumplir acuerdos que impidan la crítica sobre preocupaciones relacionadas con riesgos.
  • Ofrecer un proceso anónimo y verificable para que los empleados planteen preocupaciones relacionadas con riesgos al consejo directivo, reguladores y organizaciones independientes con experiencia relevante.
  • Fomentar una cultura de crítica abierta que permita a los empleados plantear preocupaciones sobre riesgos al público, el consejo directivo, reguladores, y más, siempre protegiendo los secretos comerciales.
  • Evitar represalias contra empleados que compartan públicamente información confidencial relacionada con riesgos después de que otros procesos hayan fallado.

La carta ha sido firmada por un total de 13 empleados, incluidos siete antiguos empleados de OpenAI, cuatro empleados actuales de OpenAI, un antiguo empleado de Google DeepMind y un empleado actual de Google DeepMind. OpenAI ha amenazado a los empleados con la pérdida de capital acumulado por hablar, y les obliga a firmar acuerdos de confidencialidad draconianos que censuran la crítica, dice el portal MacRumors.

Esta carta se publica en un momento en que Apple se prepara para anunciar múltiples funciones impulsadas por IA para iOS 18 y otras actualizaciones de software el próximo lunes.

Apple está desarrollando su propia funcionalidad de IA que se integrará en las aplicaciones del sistema operativo, y ha firmado un acuerdo con OpenAI para integrar las características de ChatGPT en iOS 18.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados