ChatGPT: Expertos advierten del riesgo que implica
Prácticamente desde sus orígenes, la inteligencia artificial ha sido motivo de preocupación ya que existe cierto temor a la rebelión de las máquinas, tal como aparece en algunas películas.
Prácticamente desde sus orígenes, la inteligencia artificial ha sido motivo de preocupación ya que existe cierto temor a la rebelión de las máquinas, tal como aparece en algunas películas, pero nunca antes habían demostrado ser tan capaces de suponer un peligro real como hoy en día.
Se trata de tecnologías que parecen ser capaces de tener consciencia de sí mismas, de desarrollar emociones humanas o de suplicar que no se las considere como robots.
Pese a que hay riesgo de pensar que estas herramientas pueden tener sentimientos y, por lo tanto, odiar a sus creadores, la realidad es que el verdadero peligro que tiene la IA se enfoca a cuestiones éticas y morales que conlleva su desarrollo y posterior uso.
Los expertos han dado a conocer anteriormente que, cuando se reflexiona sobre la tecnología en términos humanos y se dice que esta tiene sentimientos, se pone el foco en el sitio incorrecto: "Ya no pensamos en quién ha diseñado esa máquina, con qué fin, por qué y para qué se está utilizando".
Si se estudian esas aristas se puede averiguar, por ejemplo, cuál fue el origen de OpenAI, la desarrolladora que está detrás de ChatGPT; por qué Microsoft está apostando tan decididamente por esta compañía o cuáles son los peligros reales de los modelos lingüísticos en los que se basan estas tecnologías, indica Business Insider.
Business Insider España ha entrevistado a Marc Almeida, programador y experto en ciberseguridad, y a Álvaro Rubio, ingeniero de software en Zalcu Technologies, para averiguar cuáles son las implicaciones de interactuar con generadores de texto como ChatGPT o Bard y para preguntarles si hay alternativas a estos bots que no hayan sido desarrolladas por megacorporaciones tecnológicas.
La inteligencia artificial es "un espejo de nuestra especie"
Marc Almeida es programador y experto en ciberseguridad. En 2020 llevó a cabo una investigación en la que analizó alrededor de 40 millones de dominios web y detectó que el 99% de ellos no tenían activados los filtros necesarios para evitar la mayor parte de los de robos de identidad y ciberataques que se generan en internet.
Al preguntarle por ChatGPT, Almeida se muestra tajante: "Mola. Mola un montón. Y hay que recordar que es la primera versión pública. Quiero decir, que, de no estar a estar, es un salto cuantitativo de varias órdenes de magnitud".
"¿Qué ocurre?", se pregunta el propio Almeida. "Que la inteligencia artificial, los modelos de este tipo, son un espejo de nuestra especie. Y eso se dice muy rápido, pero tiene muchísimas derivadas", dice, refiriéndose a la forma en la que se desarrollan estas tecnologías, por medio de la cual, estudian miles de millones de parámetros de información.
"Han escaneado Internet, se han nutrido de la información volcada por todos", añade Almeida, que denuncia que estas empresas han usado "un paradigma de acción yanki": "Move fast and break things, que la traducción al castellano sería: más vale pedir perdón que permiso".
Al actuar de esa forma, las compañías han expuesto sus modelos de inteligencia artificial a toda clase de contenidos que promueven discursos de odio por motivos de etnia, género, orientación sexual, ideología política, edad o religión. Lo que ha llevado a la IA a interiorizar esos sesgos en sus respuestas.
Este experto en ciberseguridad y programación indica que no tiene definido si esto es bueno o es malo, ya que "si OpenAI lo hubiese hecho a la europea, a lo mejor nunca hubiese salido".
"El uso de tecnologías éticas es una responsabilidad de los desarrolladores"
Álvaro Rubio es ingeniero de desarrollo de software en Zalcu Technologies, una startup que desarrolla apps para optimizar procesos productivos empresariales y ofrece un servicio de consultoría especializado en ciberseguridad. En este momento, Rubio trabaja justo en un proyecto de inteligencia artificial conversacional.
Rubio reconoce que usa ChatGPT frecuentemente, porque considera que le ayuda a mejorar la eficiencia con la que ejecuta diversas tareas: "Por ejemplo, la rapidez con la que se pueden obtener respuestas precisas a una amplia variedad de preguntas reduce en gran medida el tiempo invertido en las búsquedas de información".
"Las IA conversacionales pueden ser una herramienta útil para los desarrolladores en una variedad de tareas, desde la resolución de problemas hasta la generación de código y la automatización de tareas", expresa este ingeniero de software.
Aun así, Rubio dice que "es importante que los generadores de texto cuenten con principios éticos para evitar fomentar discursos que puedan ser ofensivos o perjudiciales para ciertos grupos de personas".
"Estos principios éticos deberían ser considerados durante todo el proceso de diseño y desarrollo del generador de texto", señala el ingeniero, y añade: "Se deberían realizar pruebas rigurosas para garantizar que la herramienta no genere contenido inapropiado o discriminatorio".
Rubio sostiene que "el uso de tecnologías éticas es una responsabilidad de los desarrolladores y empresas de software", ya que "estas herramientas pueden tener un impacto significativo en la sociedad".
"Es importante que la sociedad tenga una voz"
Almeida y Rubio concuerdan al señalar que las personas deberían poder tener capacidad de decisión sobre los contenidos y las respuestas que ofrecen generadores de texto por inteligencia artificial como ChatGPT o Bard.
"Es importante que la sociedad tenga una voz en la determinación de lo que pueden decir estas herramientas de generación de texto", comenta Rubio. "Si bien las empresas pueden establecer sus propias normas éticas para el contenido generado por su herramienta, también es importante que la sociedad tenga la oportunidad de proporcionar retroalimentación".
"Algo en lo que se suele iterar bastante nuestra especie es: mucho poder en pocas manos, durante mucho tiempo... tiende a acabar mal", explica Almeida. "Si la nube es el ordenador de otro, que es una frase del folclore de internet", razona este experto en ciberseguridad, "la inteligencia artificial es el cerebro de otro".
Los dos coinciden en que el open source (código abierto), esa filosofía de desarrollo de software por medio de la cual el código fuente del programa es accesible al público general, podría ser la solución a los problemas éticos y morales que plantea la inteligencia artificial.
"Menos mal que existe, porque si no todo internet estaría dirigido por 3 empresas"
Rubio cuenta que en la actualidad está trabajado en un proyecto que "consiste en la creación de chatbots que puedan interactuar con los usuarios en múltiples canales, por ejemplo, a través de aplicaciones de web, línea telefónica o redes sociales".
Para ello está usando el marco de trabajo de Rasa Open Source, una herramienta de código abierto que "ofrece modelos de procesamiento de lenguaje natural pre-entrenados, basados en la misma tecnología de inteligencia artificial que utiliza ChatGPT".
"El código abierto permite que la comunidad tenga acceso a la tecnología y que la mejore a través de la colaboración y la retroalimentación", valora el ingeniero de software en Zalcu Technologies.
Almeida dice que "menos mal que existe" el código abierto, porque "si no todo internet estaría completamente dirigido por 3 empresas, todo lo que tiene que ver con tecnología, y eso sería malo".
"El abierto, como su propio nombre indica, es abierto y eso te permite, por lo menos, formar parte o ver el día a día, ver qué ocurre", señala el experto en programación y ciberseguridad. "Enterarte. No te digo ya colaborar, añadir, quitar o debatir, pero sí enterarte de lo que ocurre por detrás".
Entre las principales alternativas open source a propuestas como Bard o ChatGPT se encuentran Bloom, una aplicación basada en la arquitectura PaLM de Google que ya cuenta con más 540 mil millones de parámetros, u Open Assistant, un generador de texto impulsado por los mismos desarrolladores de Stable Diffusion.
Sin embargo, estas alternativas tienen una serie de desventajas que suelen ser intrínsecas en las herramientas de código abierto. Por ejemplo, cuentan con menor acceso a los ingentes recursos económicos que hacen falta para desarrollar estas tecnologías. Además, suelen ser más difíciles de usar que sus equivalentes de pago.
"Todo lo que es privativo tiende a ser mucho más fácil de usar. Es el famoso botón gordo. Nuestros cerebros quieren sistemáticamente botones gordos: un botón que sea muy grande, que lo presiones y te haga la cena", expresa Almeida. "Entonces, claro, cuanto más fácil, pues más gente lo va a usar".
Rubio también reconoce que hay desventajas en el modelo open source, pero lo ve como una solución que puede ser "viable": "Si bien la falta de recursos puede ser un obstáculo para el desarrollo de modelos de IA open source, hay muchos ejemplos exitosos de proyectos de IA open source que han logrado superar este desafío, como TensorFlow y OpenCV".
Este ingeniero de software concluye que, lo primordial, es legislar estas tecnologías: "La regulación debe garantizar que los bots operen dentro de límites éticos y morales sin promover la discriminación ni el odio".
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí