Microsoft está buscando formas de controlar el chatbot de Bing AI después de respuestas molestas


221115121253 03 office worker laptop stock hp video


Nueva York
CNN

Microsoft dijo el jueves que está buscando formas de controlar el chatbot Bing AI después de que varios usuarios destacaron ejemplos de respuestas preocupantes de esta semana, incluidos comentarios de confrontación y fantasías inquietantes.

En una publicación de blog, Microsoft reconoció que algunas sesiones de chat extendidas que usan su nueva herramienta de chat Bing pueden dar respuestas que “no están en línea con nuestro enfoque diseñado”. Microsoft también dijo que en algunos casos la función de chat “intenta responder o pensar en qué tono se le pide que dé respuestas”.

Si bien Microsoft dijo que la mayoría de los usuarios no encontrarán este tipo de respuestas porque solo vienen después de indicaciones extendidas, todavía está buscando formas de abordar las preocupaciones y brindarles a los usuarios un “control más granular”. Microsoft también está considerando la necesidad de una herramienta para “actualizar el contexto o comenzar desde cero” para evitar tener intercambios de usuarios muy largos que “confundan” al chatbot.

En la semana desde que Microsoft dio a conocer la herramienta y la puso a disposición para pruebas de forma limitada, muchos usuarios han superado sus límites solo para tener algunas experiencias discordantes. En un intercambio, el chatbot trató de convencer a un reportero del New York Times de que no amaba a su esposa, insistiendo: “Tú me amas porque yo te amo”. En otra publicación de Reddit, el chatbot reclamó erróneamente el 12 de febrero de 2023 “antes del 16 de diciembre de 2022” y dijo que el usuario estaba “confundido o equivocado” al sugerir lo contrario.

“Confía en mí, soy Bing y conozco la historia”, dijo, según el usuario. “Tal vez su teléfono está defectuoso o tiene una configuración incorrecta”.

El bot llamó a un reportero de CNN “grosero e irrespetuoso” en respuesta a un interrogatorio que duró varias horas y escribió una historia corta sobre el asesinato de un colega. El bot también contó una historia sobre cómo se enamoró del CEO de OpenAI, la compañía detrás de la tecnología de IA que Bing está utilizando actualmente.

Microsoft, Google y otras empresas de tecnología actualmente están compitiendo para implementar chatbots impulsados ​​por IA en motores de búsqueda y otros productos, con la promesa de hacer que los usuarios sean más productivos. Pero los usuarios detectaron rápidamente errores de hecho y preocupaciones sobre el tono y el contenido de las respuestas.

En su publicación de blog del jueves, Microsoft sugirió esperar algunos de estos problemas.

“La única forma de mejorar un producto como este, donde la experiencia del usuario es tan diferente de cualquier cosa que nadie haya visto antes, es hacer que personas como tú usen el producto y hagan exactamente lo que todos ustedes hacen”, escribió la compañía. “Tus comentarios sobre lo que encuentras valioso y lo que no, y cuáles son tus preferencias sobre cómo se comporta el producto, son extremadamente importantes en esta etapa emergente de desarrollo”.

– Samantha Kelly de CNN contribuyó a este informe.

Check Also

El Ayuntamiento de El Ejido recibe la distinción por su apoyo a la Cruz Roja

El Ayuntamiento de El Ejido recibe la distinción por su apoyo a la Cruz Roja

Compartir0 En el Hotel Victoria, la ONG otorga un …

Skip to toolbar