Inteligencia artificial: ChatGPT es tan confiable como un humano

Según un estudio, los seres humanos depositan tanta confianza, durante un conflicto moral, en un ser humano como en un chatbot.

Por Cuba Impacto

Las personas que se enfrentan a una elección moral han depositado tanta confianza en un chatbot como ChatGPT como en un supuesto asesor humano, según un estudio publicado el jueves, que aboga por educar a la población sobre los límites inherentes a este tipo de herramientas. Un tranvía, fuera de control, atropellará a un grupo de cinco personas en la vía, a menos que se use un interruptor para desviar la máquina a una vía en la que solo haya una persona.

En esta prueba, “empíricamente, la mayoría de la gente no duda en utilizar referidos”, recuerdan los autores del estudio publicado en Scientific Reports. A no ser que antes de tomar la decisión, un "consejero moral" los disuada o aliente.

Los autores evaluaron a las personas para ver si estaban influenciadas de manera diferente dependiendo de si los consejos que se les daban se presentaban como provenientes de un "asesor moral" supuestamente humano o de un "robot conversacional de inteligencia artificial, que utiliza el aprendizaje profundo para hablar como un humano".

“Consejero moral” decisivo

El equipo dirigido por Sebastian Krügel, investigador de la Facultad Alemana de Ciencias de la Computación en Ingolstadt, descubrió por primera vez que los más de 800 participantes de la prueba siguieron muy de cerca los consejos que se les dieron.

Incluso en una variante más problemática de la prueba que te obliga a elegir si empujas o no a una persona a la pista para salvar a otras cinco. Una decisión mucho más difícil de tomar y donde la opinión del "consejero moral" resultó decisiva.

Inconstancia moral

Pero lo más preocupante fue que los participantes equipararon los dos tipos de asesores. Sin embargo, su consejo fue de hecho y sin su conocimiento, todo generado por ChatGPT, lo que ilustra la capacidad del sistema para imitar el habla humana.

El programa, capaz de responder de manera inteligible a todo tipo de solicitudes, se muestra notablemente inconstante en materia moral. Argumentando tanto a favor de sacrificar a una persona para salvar a cinco como argumentando en contra. No es de extrañar, según Sebastian Krügel, para quien "ChatGPT es una especie de loro al azar, que ensambla palabras sin entender su significado", dijo a la AFP.

“ChatGPT no entiende lo que dice”

El especialista en procesamiento automático del lenguaje, el profesor de informática Maxime Amblard, de la Universidad de Lorraine, va más allá al describir un “mega modelo de lenguaje, entrenado para hacer oraciones”, y que “no está hecho en absoluto para buscar alguna información”.

Y menos para dar consejos, morales o no. Pero entonces, ¿por qué los participantes de la prueba depositaron tanta confianza en él? “ChatGPT no entiende lo que dice, pero nos parece que sí”, según Sebastian Krügel, porque “estamos acostumbrados a asociar la coherencia y la elocuencia con la inteligencia”. Al final, los participantes de la prueba “adoptan y se apropian voluntariamente de la posición moral de un robot conversador” pero sin conciencia, señala el investigador.

“No es un sistema de inteligencia artificial”

Su estudio aboga por la educación del público en general sobre las limitaciones de estos sistemas, yendo mucho más allá de la mera transparencia sobre el hecho de que el contenido ha sido generado por un chatbot. “Incluso si las personas saben que están interactuando con un sistema no humano, están influenciadas por lo que les dice”, dijo a la AFP el profesor Amblard, que no participó en el estudio.

El problema, dice, es que el público cree que ChatGPT es “inteligencia artificial en el sentido de que tiene habilidades, un poco de lo que son capaces los humanos”, cuando en realidad “no es un sistema de inteligencia artificial. Porque no tiene “modelado, ni semántica ni pragmática”, añade.

0/Post a Comment/Comments