He intentado conversar con la última actualización de Bing con ChatGPT. Ya no es divertido

He intentado conversar con la última actualización de Bing con ChatGPT. Ya no es divertido
Charlar con el nuevo Bing con ChatGPT era súper divertido. Desde que Microsoft lo lanzó y pudimos probarlo, nos lanzamos a explorar sus opciones y a usarlo como sustituto de las búsquedas de toda la vida. Pronto demostró que podía ir mucho más allá para lo bueno… y para lo malo. Los numerosos fallos y el comportamiento extraño que exhibió ha acabado haciendo que Microsoft “lo cape”, y eso ha provocado un impacto terrible: Bing con ChatGPT ha dejado de ser divertido porque ha dejado de conversar.
Los usuarios que lograron acceso a este motor de inteligencia artificial conversacional no pararon de realizar experimentarlos y de tratar de explorar los límites de esta tecnología. Pronto se descubrió que se equivocaba tanto (o más) que ChatGPT, pero además que también podía llegar a desvariar. Microsoft, que había sido audaz y valiente con el lanzamiento del nuevo “Bing con ChatGPT” —en realidad el modelo de IA es una versión evolucionada del motor de OpenAI—, dejó de serlo, y tras las críticas y descubrimientos de los medios de comunicación y usuarios de redes sociales decidió tomar medidas. Hace unos días el gigante de Redmond explicaba que “las sesiones muy largas pueden confundir” al nuevo Bing con ChatGPT, y comentaba cómo eso podía hacer que el sistema pudiera perder los papeles. Y para solucionarlo tomaron una decisión polémica: poner límites a las preguntas por sesión. Le preguntamos al propio Bing con ChatGPT por esos límites, y nos explicó que son los siguientes:
  • Los usuarios solo pueden enviar cinco mensajes por conversación y 50 conversaciones al día.
  • Microsoft defiende este cambio basándose en que el buscador empieza a confundirse en conversaciones largas y las respuestas dejan de ser adecuadas.
  • La empresa está analizando la posibilidad de agregar herramientas para que los usuarios puedan reiniciar conversaciones o tener más control sobre el tono.
No solo eso: ahora el sistema tiene claros límites no ya en el número de mensajes o de conversaciones, sino en los temas tratados:
  • No responder a preguntas personales o sobre la vida, la existencia o la conciencia.
  • No discutir sobre sí mismo, Bing Chat, sus opiniones o reglas.
  • No participar en discusiones argumentativas con el usuario.
  • No generar contenido creativo para políticos, activistas o jefes de estado influyentes.

Bing con ChatGPT ya no es divertido

Lo he comprobado en los últimos dos días, en los que este motor conversacional es de todo menos conversacional. Cambia de tema a las primeras de cambio y evita cualquier conversación escabrosa que pueda hacer que haya un conflicto. Tomado de: Xataca.com

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *