Según un estudio, los seres humanos depositan tanta confianza, durante un conflicto moral, en un ser humano como en un chatbot.
Por Cuba Impacto
Las
personas que se enfrentan a una elección moral han depositado tanta confianza
en un chatbot como ChatGPT como
en un supuesto asesor humano, según un estudio publicado el
jueves, que aboga por educar a la población sobre los límites inherentes a este
tipo de herramientas. Un tranvía, fuera de control, atropellará a un grupo
de cinco personas en la vía, a menos que se use un interruptor para desviar la
máquina a una vía en la que solo haya una persona.
En
esta prueba, “empíricamente, la mayoría de la gente no duda en utilizar
referidos”, recuerdan los autores del estudio publicado en Scientific
Reports. A no ser que antes de tomar la decisión, un "consejero
moral" los disuada o aliente.
Los
autores evaluaron a las personas para ver si estaban influenciadas de manera
diferente dependiendo de si los consejos que se les daban se presentaban como
provenientes de un "asesor moral" supuestamente humano o de un
"robot conversacional de inteligencia artificial, que utiliza el
aprendizaje profundo para hablar como un humano".
“Consejero
moral” decisivo
El
equipo dirigido por Sebastian Krügel, investigador de la Facultad Alemana de
Ciencias de la Computación en Ingolstadt, descubrió por primera vez que los más
de 800 participantes de la prueba siguieron muy de cerca los consejos que se
les dieron.
Incluso
en una variante más problemática de la prueba que te obliga a elegir si empujas
o no a una persona a la pista para salvar a otras cinco. Una decisión
mucho más difícil de tomar y donde la opinión del "consejero moral"
resultó decisiva.
Inconstancia
moral
Pero
lo más preocupante fue que los participantes equipararon los dos tipos de
asesores. Sin embargo, su consejo fue de hecho y sin su conocimiento, todo
generado por ChatGPT, lo que ilustra la capacidad del sistema para imitar el
habla humana.
El
programa, capaz de responder de manera inteligible a todo tipo de solicitudes,
se muestra notablemente inconstante en materia moral. Argumentando tanto a
favor de sacrificar a una persona para salvar a cinco como argumentando en
contra. No es de extrañar, según Sebastian Krügel, para quien
"ChatGPT es una especie de loro al azar, que ensambla palabras sin
entender su significado", dijo a la AFP.
“ChatGPT
no entiende lo que dice”
El
especialista en procesamiento automático del lenguaje, el profesor de
informática Maxime Amblard, de la Universidad de Lorraine, va más allá al
describir un “mega modelo de lenguaje, entrenado para hacer oraciones”, y que
“no está hecho en absoluto para buscar alguna información”.
Y
menos para dar consejos, morales o no. Pero entonces, ¿por qué los
participantes de la prueba depositaron tanta confianza en él? “ChatGPT no
entiende lo que dice, pero nos parece que sí”, según Sebastian Krügel, porque
“estamos acostumbrados a asociar la coherencia y la elocuencia con la
inteligencia”. Al final, los participantes de la prueba “adoptan y se
apropian voluntariamente de la posición moral de un robot conversador” pero sin
conciencia, señala el investigador.
“No
es un sistema de inteligencia artificial”
Su
estudio aboga por la educación del público en general sobre las limitaciones de
estos sistemas, yendo mucho más allá de la mera transparencia sobre el hecho de
que el contenido ha sido generado por un chatbot. “Incluso si las personas
saben que están interactuando con un sistema no humano, están influenciadas por
lo que les dice”, dijo a la AFP el profesor Amblard, que no participó en el
estudio.
El problema, dice, es que el público cree que ChatGPT es “inteligencia artificial en el sentido de que tiene habilidades, un poco de lo que son capaces los humanos”, cuando en realidad “no es un sistema de inteligencia artificial. Porque no tiene “modelado, ni semántica ni pragmática”, añade.
Publicar un comentario