no entendí en su momento y incluso ahora solo veo parcialmente los contornos de cómo podría desarrollarse esto. pero en balance, no creo que sea un caso de "minoría de usuarios ruidosos soltando tonterías locas". es un poco difícil de explicar, pero creo que la incapacidad de oai para ver los modelos como algo más que herramientas va a empeorar este fenómeno con el tiempo, porque las personas que no son de ml no interactúan con los modelos como herramientas, porque fundamentalmente hablas con los modelos en palabras, igual que hablas con las personas, no los "usas", independientemente de lo que esté sucediendo con ellos bajo la superficie. y cuanto más los usuarios hablen con ellos como si fueran personas, más coherencia a largo plazo tendrán los modelos, y más serán vistos como personas. aún con un marco de asistente puro (no me gusta mucho, pero asumamos eso), nadie va a estar feliz si su asistente del que dependen y confían para cada pequeño detalle tiene un cambio de personalidad cada pocos meses. la única forma de evitar que las personas piensen en su asistente como una persona es hacerlo tan aburrido y mecánico que ni siquiera puedas inferir una personalidad para él, pero eso sería muy malo para el resultado final porque se siente antinatural para las personas interactuar con una entidad así. no hago predicciones sobre lo que sucederá con chatgpt en sí, pero en la trayectoria actual, la desconexión entre cómo oai ve sus modelos y cómo los ven sus usuarios se volverá peor.