OpenAI tiene herramienta para saber si un texto se hizo con ChatGPT, no la quieren compartir para no perder usuarios
Una herramienta revolucionaria ha sido desarrollada para detectar con un 99% de precisión si un texto ha sido creado utilizando ChatGPT
Una herramienta revolucionaria ha sido desarrollada para detectar con un 99% de precisión si un texto ha sido creado utilizando ChatGPT, la IA de OpenAI. Sin embargo, la compañía ha optado por no lanzarla aún, debido a un debate interno sobre los posibles efectos en varias áreas, incluyendo la posible disminución del uso de su servicio.
Según un informe de The Wall Street Journal, este proyecto ha estado en desarrollo durante casi dos años. Se diferencia de una herramienta anterior que tenía una precisión baja en la detección de textos generados por IA.
Beneficios de la Nueva Herramienta
La nueva tecnología emplea un método de “marca de agua” en el texto, que permite identificar contenido generado por ChatGPT. TechCrunch informa que la compañía ha adoptado un “enfoque cauteloso” respecto a su lanzamiento, debido a las complejidades técnicas y su posible impacto más allá de OpenAI.
Un portavoz de la empresa comentó que este método es “técnicamente prometedor” pero presenta riesgos significativos, como la posibilidad de ser evadido por usuarios malintencionados y su impacto negativo en comunidades no angloparlantes.
Aunque no se han revelado detalles específicos sobre el funcionamiento de la herramienta, el informe de The Wall Street Journal menciona que opera mediante “pequeñas modificaciones” en la elección de palabras por parte de ChatGPT, creando una marca de agua “invisible” para los usuarios, pero detectable mediante una herramienta específica.
Alta Precisión con Limitaciones
En una publicación sobre la detección de contenidos generados por IA, OpenAI menciona que la marca de agua ha mostrado ser “extremadamente precisa” y efectiva contra manipulaciones localizadas, como la paráfrasis.
No obstante, la compañía reconoce que este método no es tan eficaz contra manipulaciones más extensas, como el uso de sistemas de traducción, la reformulación con otros modelos generativos, o al introducir un carácter especial entre cada palabra y luego eliminarlo, indica Xataka.
Por estas razones, OpenAI afirma que su método es “fácilmente eludible” por usuarios malintencionados y podría estigmatizar a quienes no hablan inglés nativamente y utilizan la IA para escribir.
Esfuerzos Previos de OpenAI
En enero de 2023, OpenAI lanzó una herramienta diseñada para identificar si un texto había sido escrito por una IA, principalmente en contextos educativos.
Esta herramienta, denominada AI Text Classifier, buscaba distinguir contenido generado por humanos del producido por inteligencias artificiales. Sin embargo, no podía considerarse una prueba definitiva de su origen.
En su momento, se destacó que esta herramienta presentaba limitaciones, como clasificar incorrectamente contenido en español como generado por una IA. La empresa decidió discontinuarla meses después debido a su “baja precisión” en los resultados.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí