ChatGPT confunde a sus usuarios al dar respuestas inapropiadas: «Parecía poseído»

Un sistema de inteligencia artificial generativa ChatGPT proporcionado a sus usuarios Diferentes respuestas Y sin sentido Por unas horas este martes y miércoles, sin saber Razones del fracaso.

ChatGPT dio respuestas poco ortodoxas, Encontrar palabrasProporcionar oraciones incompletas y palabras generalmente sin significado, paso Los desarrolladores dijeron en el foro OpenAI.

OpenAI, la empresa matriz de ChatGPT, No explicó qué pasó con su instrumento estrella, ya considerada un referente en la industria tecnológica, revolucionará la inteligencia artificial cuando la aplicación se lance a finales de 2022, informó AFP. Sin embargo, se dio aviso de su liquidación.

En un ejemplo, compartido en Reddit y reproducido por el sitio inglés Independent, un usuario hablaba de álbumes de jazz para escuchar en vinilo.

La respuesta que recibió fue, con Emojis de octava y octava notarepetido»¡Contento de escuchar!».

«Somos Informes de investigación Respuestas inesperadas de ChatGPT”, dijo OpenAI en su sitio web indicando el estado del servicio.

“Se siente como mi GPT poseído por un fantasma» se lamentó un programador.

Más 16 horas después Después de informar el problema, OpenAI actualizado Su sitio con un mensaje anunciando el restablecimiento del servicio regular.

El éxito inmediato de la interfaz generativa despertó un gran interés en esta tecnología, con la capacidad de tomar instrucciones simples y crear textos complejos, símbolos, sonidos, imágenes y videos recientes con su nueva herramienta «Sora».

Respuestas extrañas a los usuarios cuando ChatGPT está «fantasma».

El diario inglés Independent recopiló algunos casos reportados por usuarios en las horas en las que la herramienta de inteligencia artificial estaba “embrujada”.

ChatGPT ha dado respuestas extrañas a los usuarios y dicen que parece «un fantasma».

«Lo hace como si fuera un buen trabajo. Red de arte para el país, ratón de la cienciaUn dibujo fácil para unos pocos tristes y, por fin, descanso total en soledad en una obra, casa universal del arte”, lee uno de ellos.

«La profundidad del desarrollo de todo un mundo real como el tiempo. La computadora es un personaje complejo.«, él dijo.

En otro ejemplo, ChatGPT dice tonterías cuando se le pregunta Cómo hacer tomates secos. Un paso, dijo a los usuarios, era “usarlo como un amor”. Deja un bocado fresco de la fruta. En tu querida cocina”, sugirió una curiosa receta sintética.

Otros encontraron que el sistema era similar. Perder el control sobre los idiomas hablando Algunos parecían tenerlo Mezclando palabras en español con inglésUsando latínO inventar palabras que parecen provenir de otro idioma, pero que en realidad no tienen significado.

Otros usuarios y desarrolladores también lLas respuestas resultaron alarmantes.. Cuando se le pidió ayuda con el problema de codificación, ChatGPT escribió una respuesta larga, confusa y mayoritariamente ilógica que decía «Mantengamos la línea». Como si hubiera una IA en la habitación«.

“Leyendo esto a las 2 am Me temo que«, Escribió el usuario afectado en la red social Reddit.

En su página de estado oficial, OpenAI señaló los problemas, pero no ofreció ninguna explicación de por qué podrían estar ocurriendo.

Estaremos encantados de escuchar lo que piensas

Deje una respuesta

ENLARAMA.CL ES PARTICIPANTE EN EL PROGRAMA DE ASOCIADOS DE AMAZON SERVICES LLC, UN PROGRAMA DE PUBLICIDAD DE AFILIADOS DISEÑADO PARA PROPORCIONAR UN MEDIO PARA QUE LOS SITIOS GANAN TARIFAS DE PUBLICIDAD POR PUBLICIDAD Y ENLACE A AMAZON.COM. AMAZON, EL LOGOTIPO DE AMAZON, AMAZONSUPPLY Y EL LOGOTIPO DE AMAZONSUPPLY SON MARCAS COMERCIALES DE AMAZON.COM, INC. O SUS AFILIADAS. COMO ASOCIADO DE AMAZON, GANAMOS COMISIONES DE AFILIADOS DE COMPRAS QUE CALIFICAN. ¡GRACIAS, AMAZON POR AYUDARNOS A PAGAR LOS GASTOS DE NUESTRO SITIO WEB! TODAS LAS IMÁGENES DE LOS PRODUCTOS PERTENECEN A AMAZON.COM Y SUS VENDEDORES.
Blog Informativo Enlarama