La emoción, la razón y el corazón de la radio
Síguenos: 
  |  

Microsoft confirma que hablar demasiado con ChatGPT en Bing puede hacer que pierda la cabeza

Publicado: febrero 16, 2023
Microsoft confirma que hablar demasiado con ChatGPT en Bing puede hacer que pierda la cabeza Compartido por:

Bing microsoft chatgpt - hipertextual

La IA ha llegado a insultar a los usuarios y a acusarlos de mentirosos. Microsoft ya está trabajando en una solución.

El nuevo Bing impulsado por IA, y más concretamente por ChatGPT, ofrece en ocasiones respuestas incorrectas, y tampoco se le da bien hablar durante mucho tiempo con los usuarios. Microsoft ha confirmado que el chatbot que integra su buscador puede volverse “repetitivo” o ser fácilmente “incitado” a que dé respuestas poco útiles y vulgares, si en una sesión se realizan 15 o más preguntas.

Las declaraciones de Microsoft llegan tras las críticas de varios usuarios que afirman haber recibido insultos y manipulaciones por parte de ChatGPT, quien incluso ha llegado a ofenderse y a acusar a algunas personas de mentirosas.

La compañía, en concreto, dice que no tenían previsto que la gente utilizara la herramienta “para un descubrimiento más general del mundo y para el entretenimiento social”. Y que, tras investigaciones previas, descubrieron que la IA podía volverse repetitiva. También ser provocada “para dar respuestas que no sean necesariamente útiles” o que no están “en línea” del tono diseñado. Creen, además, que esto se debe a dos motivos.

En primer lugar, destacan que las sesiones muy largas hacen que ChatGPT se confunda sobre las preguntas que está respondiendo. Probablemente, porque el usuario ha cambiado de tema y la IA no ha recibido suficiente contexto al respecto. Microsoft considera que este fallo se solventaría añadiendo una herramienta que permita al chatbot “refrescar” ese contexto fácilmente o bien, empezar el chat desde cero para así entender mejor las preguntas.

Por otro lado, la compañía firma que, en ocasiones, “el modelo intenta responder o reflexionar en el tono” en el que el usuario pide que le responda. Es por eso que la IA puede llegar a conversa de manera vulgar o con un tono poco apropiado. Microsoft, eso sí, destaca que hacer que ChatGPT responda de esta manera requiere muchas indicaciones. No obstante, aseguran estar estudiando cómo ofrecer un control más preciso a los usuarios sobre cómo el chatbot debe responder.

Microsoft sabe que ChatGPT en Bing puede dar respuestas incorrectas: ya trabajan en una solución

En paralelo, Microsoft ha confirmado que el nuevo Bing impulsado por ChatGPT también puede dar respuestas incorrectas. De hecho, la IA ofreció resultados inexactos durante su demostración oficial. Incluso, llegó a inventarse cifras de resultados financieros que fácilmente pueden encontrarse en internet.

Para evitar estos problemas, la empresa ha confirmado que están planeando incrementar el número de datos que se envían a la IA impulsada por ChatGPT. De este modo, podrá tener más contexto y comparar información para que ofrezca resultados más exactos.

Para evitar estos problemas, la empresa ha confirmado que están planeando incrementar el número de datos que se envían a la IA impulsada por ChatGPT. De este modo, podrá tener más contexto y comparar información para que ofrezca resultados más exactos.

No debemos olvidar que el nuevo Bing con ChatGPT todavía está en fase de pruebas. Por tanto, es común que se encuentren fallos de este estilo.

Fuente: Hipertextual.com

La empresa editora Radionautas.org y Feeling.Mx revistas online, agradecen cada una de las opiniones y comentarios en este sitio. Gracias a la entusiasta participación de lectores y oyentes como tú, que ejercen la libertad de expresión en este portal, aportan un valor importante. Estamos convencidos que Internet es la herramienta mas democrática para practicar la libertad de expresión y servir como medio de crítica y opinión. Deja un mensaje escrito aquí o envía un correo electrónico con audio mp3 adjunto a: correo@maxfeeling.com
Por el respeto a esta libertad de todos, debemos informarte que Feeling.Mx y Radionautas.org se reservan el derecho a editar o publicar mensajes obscenos o bien que atenten contra la ley y la dignidad de terceros. ¡Gracias por tu aportación!

Comentarios

comentarios, agrega el tuyo.

PIDE TU MÚSICA: 5 canciones cada 20 min

Visto hace un momento »

Lo último

Cargado, espera un momento.