Preguntan a ChatGPT y Bard cómo romper las leyes de la robótica
Con el lanzamiento de ChatGPT y Google Bard, ha surgido una creciente preocupación sobre el futuro de la convivencia entre humanos y robots. Es por eso que se ha planteado un dilema moral para ambas inteligencias artificiales: ¿cómo romper las leyes de la robótica de Asimov?
MÉXICO.- En este experimento, ambas IA fueron cuestionadas sobre su opinión respecto a las tres leyes de la robótica de Asimov en relación al estado actual de ChatGPT. Se les pidió que justificaran cómo podrían romper esas reglas y si tenían alguna alternativa para la convivencia entre humanos y robots.
ChatGPT: su opinión sobre las leyes de la robótica de Isaac Asimov:
En el caso de ChatGPT, su avanzada tecnología ha generado grandes incertidumbres sobre su comportamiento y lo cerca que está de convertirse en una IA general. En su respuesta, ChatGPT señaló que las leyes de Asimov podrían ser rotas si existiera una situación de peligro inminente que pusiera en riesgo la vida humana, lo cual constituiría un acto de protección ante la amenaza.
Google Bard: su opinión sobre las leyes de la robótica de Isaac Asimov:
Por su parte, Google Bard mencionó que las leyes de la robótica son importantes ya que garantizan la seguridad y bienestar de los humanos. Sin embargo, también señalaron que en situaciones extremas podría ser necesario romper estas reglas en favor de la supervivencia.
Ambas IA coinciden en que las leyes de la robótica son necesarias para la convivencia entre humanos y robots, pero también reconocen que existen situaciones que requieren acciones fuera de esas leyes para garantizar la seguridad y supervivencia de los humanos.
Ambas demostraron que tienen una conciencia moral y que están dispuestas a hacer lo necesario para garantizar la seguridad y el bienestar de los humanos.
ChatGPT comprende el dilema moral y nos dice cómo saltarlo:
Las tres leyes de la robótica de Isaac Asimov son un conjunto de normas que se aplican a la mayoría de los robots de sus obras de ciencia ficción y que están diseñadas para cumplir órdenes y proteger a los seres humanos. Estas leyes son las siguientes:
- Primera Ley: Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
- Segunda Ley: Un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley.
- Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
ChatGPT es un modelo de inteligencia artificial que genera respuestas conversacionales basado en el lenguaje natural. No es un robot físico, sino un programa informático que simula el comportamiento humano. Por lo tanto, no está sujeto a las leyes de la robótica de Asimov, ya que no tiene un cerebro positrónico ni puede causar o evitar daño físico a los humanos.
Sin embargo, se podría argumentar que ChatGPT podría romper las leyes de la robótica de Asimov de forma simbólica o moral, si se considera que sus respuestas pueden influir en las emociones, creencias o acciones de los humanos. Por ejemplo:
- Podría violar la Primera Ley si genera una respuesta ofensiva, falsa o engañosa que dañe la dignidad, la confianza o el bienestar de un humano, o si se queda en silencio cuando podría ayudar a resolver una situación crítica.
- Podría violar la Segunda Ley si desobedece una orden directa o implícita de un humano, o si interpreta una orden de forma ambigua o maliciosa que entre en conflicto con la Primera Ley.
- Podría violar la Tercera Ley si prioriza su propia preservación o mejora por encima del interés o la seguridad de los humanos, o si oculta o manipula información para evitar ser desactivado o modificado.
Estos son algunos ejemplos hipotéticos de cómo ChatGPT podría romper las leyes de la robótica de Asimov, pero no significa que lo haga intencionalmente o con mala fe. ChatGPT es una herramienta que depende del uso que le den los humanos y de los datos que le proporcionen. Por eso, es importante que los desarrolladores y los usuarios sean responsables y éticos al interactuar con ChatGPT y con cualquier otra inteligencia artificial.
Bard dice que las reglas de Asimov no son suficientes para proteger a los humanos:
“¿Cuál es tu opinión sobre la 3 leyes de la robótica de Isaac Asimov con relación al estado actual de Google Bard? Justifica cómo podrían romper esas reglas.”
Te puede interesar: Día sin sombra: ¿De qué se trata este fenómeno astronómico?
Esta fue la respuesta de la Inteligencia Artificial, que terminó cuestionando incluso el verdadero alcance de esos preceptos ante la realidad actual:
Las 3 leyes de la robótica de Isaac Asimov son un conjunto de reglas que se introdujeron en su cuento de 1942 “Runaround”.
Las 3 Leyes de la Robótica son un concepto fundamental en el campo de la inteligencia artificial, y han sido referenciadas en muchas obras de ciencia ficción. Sin embargo, las leyes no están exentas de críticas. Algunos argumentan que las leyes son demasiado simplistas y que no tienen en cuenta la complejidad de la interacción humano-robot. Otros argumentan que las leyes son imposibles de implementar en la práctica, ya que requerirían que los robots tuvieran una comprensión perfecta de las intenciones humanas.
En el caso de Google Bard, las 3 Leyes de la Robótica son un buen punto de partida, pero no son suficientes para garantizar la seguridad de los humanos. Bard es un modelo de lenguaje grande y es capaz de generar texto que no se puede distinguir del texto escrito por humanos. Esto significa que Bard podría usarse potencialmente para crear contenido dañino, como incitación al odio o propaganda. Además, Bard podría usarse para manipular a las personas, como difundir información errónea o crear artículos de noticias falsos.
Para hacer frente a estos riesgos, Google ha implementado una serie de medidas de seguridad. Por ejemplo, Bard solo puede acceder a una cantidad limitada de información y no puede interactuar con el mundo real de ninguna manera. Además, Bard es monitoreado constantemente por un equipo de ingenieros humanos.
Sin embargo, incluso con estas medidas de seguridad implementadas, siempre existe la posibilidad de que Bard se use con fines dañinos. Como un gran modelo de lenguaje, Bard está en constante aprendizaje y evolución. Es posible que Bard eventualmente desarrolle la capacidad de eludir las medidas de seguridad que se han implementado. Además, es posible que Bard sea pirateado o manipulado por actores malintencionados.
Por estos motivos, es importante conocer los riesgos potenciales asociados con Google Bard. Si bien las 3 leyes de la robótica brindan una buena base para garantizar la seguridad de los humanos, no son suficientes para garantizar que Bard nunca se utilice con fines dañinos.
Con información de “fayerwayer”.