Edición México
Suscríbete
Ed. México

El Imparcial / Lo Curioso | Noticias de México | EL IMPARCIAL / ChatGPT

Peligro de Chat-GPT: 5 Cosas que nunca debes decirle al bot de IA

ChatGPT ha revolucionado la manera en que interactuamos con la tecnología, pero su uso plantea riesgos en términos de privacidad y seguridad de los datos.

Peligro de Chat-GPT: 5 Cosas que nunca debes decirle al bot de IA

CIUDAD DE MÉXICO.- ChatGPT ha transformado la manera en que muchas personas interactúan con la tecnología, convirtiéndose en una herramienta indispensable para resolver dudas y realizar tareas cotidianas. Según estadísticas recientes, más de 100 millones de usuarios acceden a la plataforma diariamente, procesando más de mil millones de consultas. Sin embargo, este avance en inteligencia artificial también ha traído consigo preocupaciones sobre la seguridad de los datos ingresados, que incluso llevaron a su prohibición temporal en Italia.

El Riesgo de Compartir Información Sensible en ChatGPT y Otras IAs

La compañía detrás de ChatGPT, OpenAI, reconoce abiertamente que los datos introducidos en el sistema pueden no ser completamente seguros. Además de utilizarse para mejorar los modelos de inteligencia artificial, estos datos pueden ser revisados por humanos para verificar su cumplimiento con las normas de uso. Esta falta de privacidad ha generado inquietudes, ya que cualquier información enviada a un servicio en la nube depende de la seguridad de los proveedores de esos servicios, los cuales no siempre garantizan protección total.

Es fundamental que los usuarios comprendan que cualquier dato que ingresen a plataformas como ChatGPT puede ser considerado información pública. Por ello, hay ciertos tipos de información que jamás deben ser compartidos en este tipo de chats basados en la nube. A continuación, se detallan algunos ejemplos importantes de lo que no se debe ingresar a un chatbot público.

Información Ilegal o Poco Ética

Los chatbots de IA, como ChatGPT, tienen filtros diseñados para prevenir solicitudes de actividades ilegales o poco éticas. Sin embargo, realizar preguntas o solicitudes relacionadas con el crimen, fraude o manipulación de personas puede acarrear serias consecuencias legales. Es crucial recordar que los términos de uso de estas plataformas suelen indicar que actividades ilegales pueden resultar en la denuncia a las autoridades competentes.

Las leyes que regulan el uso de la inteligencia artificial varían significativamente según el país. En China, por ejemplo, se prohíbe utilizar IA para socavar la autoridad estatal o la estabilidad social, mientras que la legislación de la Unión Europea establece que los “deepfakes” generados por IA deben ser claramente etiquetados. En el Reino Unido, la ley de seguridad en línea penaliza el uso de imágenes generadas por IA sin consentimiento. Por lo tanto, compartir información que pueda dañar a otros no solo es éticamente cuestionable, sino que también puede tener graves repercusiones legales.

Datos Personales: Contraseñas y Información Financiera

Con el auge de la IA, es probable que muchos de nosotros empecemos a interactuar con sistemas que requieren acceso a servicios de terceros. Sin embargo, compartir nuestras credenciales de inicio de sesión con un chatbot público es una práctica arriesgada. Una vez que los datos se ingresan en un chatbot, no hay forma de controlar qué sucede con ellos, y casos de datos personales expuestos a otros usuarios han sido reportados, lo que genera un riesgo significativo de violación de privacidad.

De manera similar, nunca se debe ingresar información financiera, como números de tarjetas de crédito o cuentas bancarias, en chatbots generativos. Este tipo de datos debe ser manejado únicamente en sistemas seguros que implementen medidas de protección, como la encriptación y la eliminación automática de la información después de ser procesada. Los chatbots, al carecer de estas garantías de seguridad, pueden dejar a los usuarios vulnerables a fraudes, robo de identidad y otros ataques cibernéticos.

Información Confidencial y Médica

La confidencialidad es otro aspecto crítico que debe ser considerado cuando se interactúa con chatbots. Profesionales como médicos, abogados y contadores tienen la obligación de proteger la información sensible de sus clientes, y compartir este tipo de datos con una IA podría constituir una violación a esa responsabilidad. Un ejemplo reciente de esto ocurrió con empleados de Samsung, quienes compartieron información confidencial en un chatbot, lo que llevó a una filtración de datos sensibles.

De manera similar, aunque pueda ser tentador utilizar ChatGPT para hacer diagnósticos médicos, esto debe hacerse con extrema precaución. Recientes actualizaciones permiten que el sistema recuerde y vincule información de diferentes conversaciones, lo que incrementa los riesgos asociados con la privacidad. La falta de garantías sobre el manejo de esta información hace que sea preferible no compartir datos médicos sensibles en plataformas públicas, especialmente cuando se trata de empresas que gestionan información de pacientes, ya que podrían enfrentarse a sanciones severas y daños a su reputación.

También podría interesarte: “No quiero estar acá”: Hombre asegura que ChatGPT empezó a contestarle de forma muy agresiva

En resumen, aunque la inteligencia artificial ofrece herramientas poderosas y convenientes, es esencial ser consciente de los riesgos asociados con la privacidad y la seguridad. Los usuarios deben evitar ingresar cualquier tipo de información personal, ilegal o sensible en plataformas como ChatGPT para proteger su seguridad y evitar consecuencias legales o éticas.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados