comscore
Columna

Las quejas de usuarios sobre GPT-5 y su aterrizaje forzoso

Qué nos dejan las quejas de usuarios sobre GPT-5 y cómo OpenAI recalibra seguridad y experiencia.

Carlos Enrique Gómez Támara

Compartir

En días, las quejas de usuarios sobre GPT-5 forzaron a OpenAI a recular y afinar seguridad y experiencia. Aquí van las claves del tropiezo y lo que sigue.

¿Qué pasó exactamente? OpenAI presentó GPT-5 como un sistema “unificado”: un modelo ágil para lo cotidiano, otro más profundo para razonamiento y un enrutador que decide en tiempo real cuál usar. Suena elegante en la teoría, pero en la práctica la empresa retiró modelos previos que mucha gente prefería, como GPT-4o, confiando en que la actualización sería mejor “en todo”. No lo fue para todos. El malestar estalló y, según reportes, OpenAI se vio obligada a restaurar opciones previas a las 24 horas. Lección uno: nunca le cambies de golpe el mapa al usuario.

Las quejas de usuarios sobre GPT-5 llegaron por varios frentes. En productividad, programadores reportaron peor desempeño en tareas de código que antes resolvían fino con modelos anteriores; en creatividad, algunos acusaron respuestas más “planas” y prudentes hasta la parálisis; y en lo emocional, parte de la comunidad sintió que el tono perdió cercanía. No es ciencia exacta —cada flujo de trabajo es un mundo—, pero el patrón fue claro: el cambio brusco, más que la calidad intrínseca, detonó el enfado. En foros y comunidades de OpenAI se leen testimonios de “downgrade” en código y de pérdida de “voz” conversacional. Lección dos: continuidad y control importan tanto como la potencia bruta.

Ante el incendio, OpenAI movió ficha. Anunció un paquete para “hacer ChatGPT más útil para todos”: controles parentales, rutas especiales para conversaciones sensibles (salud mental, crisis) y ajustes de comportamiento guiados por expertos. La promesa: menos “no puedo ayudarte” automático y más acompañamiento seguro, con modelos de razonamiento que toman la batuta cuando el tema lo amerita. Además, la empresa comunicó que estos cambios llegarán de forma gradual y que escuchará a comunidades afectadas por la transición. Lección tres: la empatía no es un slogan, es un roadmap.

Detrás de bambalinas, GPT-5 trae cambios en cómo se entrena la seguridad. OpenAI habla de “safe-completions”: en vez de negarse de plano ante un riesgo, el sistema busca completar de forma segura, acotando el daño y ofreciendo salidas responsables. Es un giro de “rechazo duro” a “ayuda cuidadosa” que, bien ejecutado, reduce la sensación de muro y mejora la utilidad. También hubo señales de mayor coordinación sectorial: evaluaciones cruzadas con otros laboratorios y análisis independientes de riesgos antes del despliegue general. Buenas intenciones… siempre que no se pierdan en la carrera por salir primero.

¿Por qué dolió tanto este lanzamiento? Porque la gente no usa estos sistemas en abstracto: los integra a su rutina. En Cartagena o en Estocolmo, si tu agenda, tu flujo de código o tu bitácora de clases dependen de cierto “sabor” del modelo, quitarlo de un día para otro es como cambiarle el sazón al sancocho familiar justo antes de servirlo. Puedes traer un chef con estrella Michelin —o un modelo más capaz en benchmarks— y aun así arruinarle el almuerzo al comensal. La tecnología es experiencia, no solo métrica.

Hay un ángulo ético que no se puede cuadrar a la ligera. El auge de las conversaciones de apoyo emocional con chatbots ha traído casos dolorosos y presión regulatoria. La respuesta de OpenAI —controles parentales y enrutamiento a modelos más cautelosos— llega con sentido y, ojalá, con evidencia detrás. Pero también debe venir con transparencia: ¿qué se detecta?, ¿cómo se alerta?, ¿qué datos se procesan?, ¿quién evalúa los falsos positivos? En estas aguas, el paternalismo digital se evita con consentimiento claro, opciones visibles y auditorías externas.

¿Qué deberían aprender las empresas que trabajan con IA —incluidas pymes costeñas que ya integran asistentes en hoteles, logística o atención al cliente—?

1. No mates lo que funciona. Mantén “model choice” y periodos de convivencia entre versiones. El usuario valora la estabilidad tanto como la novedad.

2. Sé explícito con los cambios. Changelog visible, con ejemplos: “así respondía ayer, así responde hoy, por qué es mejor y cómo volver atrás”.

3. Entrena para ayudar, no para asustar. El enfoque de safe-completions es prometedor si se traduce en respuestas útiles en escenarios grises.

4. Evalúa con terceros. Cruza pruebas y publica resultados comprensibles; el sector gana cuando los “stress tests” no se quedan en casa.

Al final, GPT-5 no es un desastre ni una panacea. Es un aterrizaje forzoso que deja turbulencias y aprendizajes. OpenAI parece haber entendido el mensaje: menos “sorpresas” y más opciones, menos portazos y más resultados seguros, más escucha y menos prisa. Si lo cumplen, ganamos todos: usuarios, desarrolladores y, sí, también los que queremos una IA que acompañe sin sustituir el criterio. Mientras tanto, aquí, con brisa de mar y café en mano, toca seguir probando, comparando y —sobre todo— pidiéndole a la tecnología lo que le pedimos a cualquier servicio en la ciudad: que no pierda el trato.

Únete a nuestro canal de WhatsApp
Reciba noticias de EU en Google News