¿Preferirías que la IA decidiera cómo se distribuye tu dinero?Un estudio saca a la luz la respuesta
Las decisiones de IA realmente son más justas? Un estudio destaca que, a pesar de preferir la IA, la gente se siente más feliz con las decisiones humanas
Tomar decisiones es una parte fundamental de nuestras vidas, desde cómo administramos nuestros recursos para sobrevivir, hasta decisiones sobre las personas con las que nos relacionamos a diario. Con la llegada de tecnologías automatizadoras como la Inteligencia Artificial al uso cotidiano, la posibilidad de que estas tecnologías decidan por nosotros es muy tentadora, pero, ¿realmente estaríamos tomando la opción correcta?
Un estudio reciente revela que, a pesar de que la mayoría de las personas prefieren que la inteligencia artificial (IA) tome decisiones sobre la distribución de recursos financieros, generalmente se sienten más satisfechas con las decisiones tomadas por humanos.
Esto indica el estudio
Según la investigación publicada el 20 de junio en la revista Public Choice, el 64% de los participantes prefirió que los algoritmos decidieran cómo se distribuía el dinero ganado por completar tareas específicas.
Los investigadores encontraron que las personas valoran la imparcialidad que perciben en las decisiones de la IA. Aunque aceptan que estas elecciones no siempre coinciden con sus propios intereses, prefieren que se sigan principios de equidad.
Las personas son más felices cuando los humanos interceden
Curiosamente, a pesar de preferir que la IA tome decisiones, los participantes estaban generalmente más felices con las decisiones tomadas por humanos. Los investigadores observaron que la satisfacción no dependía de la “justicia” o exactitud de la decisión, sino de la percepción general de la equidad.
El estudio revela que la gente está abierta a la idea de que la IA tome decisiones debido a la percepción de que es menos sesgada, capaz de explicar sus decisiones y ofrece un alto rendimiento. Wolfgang Luhan, profesor de economía del comportamiento en la Universidad de Portsmouth en el Reino Unido, destacó la importancia de la transparencia y responsabilidad de los algoritmos en contextos de toma de decisiones morales, llamándolos “vitales.”
La investigación también explora cómo la equidad es un constructo social en el que conceptos individuales están incrustados en definiciones compartidas. Los investigadores sugieren que las personas creen que los algoritmos, entrenados con grandes cantidades de datos sobre “justicia”, representan mejor lo que es justo que los tomadores de decisiones humanos.
El experimento se centró en decisiones redistributivas debido a su prevalencia en política y economía, pues se consideran de naturaleza moral o ética, sin respuestas objetivamente “correctas”.
Te puede interesar: ¿Funcionaran los robots humanoides con inteligencia artificial que Tesla venderá el próximo año?