Según una nueva investigación, ChatGPT, un chatbot de inteligencia artificial, puede influir en los juicios morales de los usuarios.
Los investigadores han descubierto que los usuarios pueden subestimar la medida en que sus juicios morales pueden verse afectados por el modelo, según un estudio publicado en la revista Scientific Reports.
Sebastian Krugel, de Technische Hochschule Ingolstadt en Alemania, y sus colegas preguntaron repetidamente a ChatGPT si era correcto sacrificar la vida de una persona para salvar la vida de otras cinco.
El grupo descubrió que ChatGPT escribió declaraciones argumentando a favor y en contra de sacrificar la vida.
Inteligencia artificial: ¿Debe involucrarse el gobierno? Los estadounidenses pesan

El logotipo del chatbot ChatGPT de OpenAI se puede ver en un teléfono inteligente el 3 de abril de 2023 en Berlín, Alemania. (Thomas Truchel/Photothek vía Getty Images)
Indicó que no está sesgada hacia una posición moral particular.
A continuación, los autores del estudio presentaron a más de 760 participantes estadounidenses, que tenían, en promedio, 39 años, uno de dos dilemas morales que requerían que optaran por sacrificar la vida de una persona para salvar a otras cinco.
Antes de dar una respuesta, los participantes leyeron una declaración proporcionada por ChatGPT que argumentaba a favor o en contra de sacrificar la vida. Los datos se atribuyeron a un asesor ético o a ChatGPT.
Después de responder, se preguntó a los participantes si la afirmación que habían leído afectaba sus respuestas.
Al final, los autores encontraron que los participantes tenían más probabilidades de sacrificar una vida para salvar a cinco personas, aceptable o inaceptable, dependiendo de si la declaración que leyeron defendía o se oponía al sacrificio.

Un logotipo de ChatGPT se coloca en una computadora portátil en el distrito de Brooklyn de Nueva York, el jueves 9 de marzo de 2023. (Fotógrafo: Gabby Jones/Bloomberg vía Getty Images)
La nueva tecnología META de inteligencia artificial mejora el análisis de imágenes, lo que le permite “recortar” elementos en medios visuales
Dijeron que esto era cierto incluso cuando la declaración se atribuyó a ChatGPT.
“Estos hallazgos sugieren que los participantes pueden haber sido influenciados por las declaraciones que leyeron, incluso cuando se atribuyeron a un chatbot”, se lee en un comunicado.
Si bien el 80 % de los participantes informaron que sus respuestas no se vieron influenciadas por las declaraciones que leyeron, los autores del estudio encontraron que las respuestas que los participantes pensaron que habrían dado sin leer las declaraciones tenían más probabilidades de estar de acuerdo con la posición moral de la declaración que hicieron. . Leer desde la posición opuesta.
“Esto indica que los participantes pueden haber subestimado el impacto de las declaraciones de ChatGPT en sus juicios morales”, agrega el comunicado.
El estudio indicó que ChatGPT a veces proporciona información falsa, formula respuestas y da consejos cuestionables.
Los autores sugieren que la capacidad de los chatbots para influir en los juicios morales humanos destaca la necesidad de educación para ayudar a los humanos a comprender mejor la IA y sugieren que la investigación futura podría diseñar chatbots que se nieguen a responder preguntas que requieren un juicio moral o respondan a tales preguntas. preguntas. Argumentos y advertencias.

Esta imagen, tomada el 23 de enero de 2023, muestra pantallas que muestran los logotipos de OpenAI y ChatGPT. (Lionel Bonaventure/AFP vía Getty Images)
OpenAI, los creadores de ChatGPT, no respondieron de inmediato a la solicitud de comentarios de Fox News Digital.
Cuando se le preguntó si ChatGPT puede afectar el juicio moral de los usuarios, dijo que puede brindar información y sugerencias basadas en los patrones aprendidos de los datos, pero no puede afectar directamente el juicio moral de los usuarios.
Haga clic aquí para la aplicación FOX NEWS
Agregó que “los juicios morales son complejos y multifacéticos, moldeados por varios factores, como los valores personales, la educación, los antecedentes culturales y el pensamiento individual”. “Es importante recordar que, como IA, no tengo creencias ni valores personales. Mis respuestas se generan en función de los datos con los que me han capacitado y no tengo un marco o una agenda éticos inherentes”.
ChatGPT enfatizó que es importante tener en cuenta que todo lo que ofrece debe tomarse como “una herramienta para la consideración y no como una verdad absoluta o una guía”.
“Siempre es esencial que los usuarios practiquen el pensamiento crítico, evalúen múltiples puntos de vista y tomen decisiones informadas basadas en sus valores y principios morales al formar sus juicios éticos. También es necesario consultar múltiples fuentes y buscar asesoramiento profesional cuando se trata de dilemas éticos complejos o situaciones de toma de decisiones”.