¿Quieres hacer colapsar a ChatGPT? Una simple pregunta logra que la IA "sufra un derrame cerebral"

¿Puede un chatbot avanzado fallar con preguntas sencillas? Descubre el llamativo colapso lógico que experimenta ChatGPT-5 y qué dice esto sobre la inteligencia artificial.
La actualización del modelo GPT-5 de ChatGPT prometía alcanzar capacidades de inteligencia artificial al nivel de un doctorado. Sin embargo, a meses de su lanzamiento en 2025, sufre inesperados colapsos lógicos ante consultas simples, generando debates sobre su fiabilidad.
Usuarios en redes como Reddit han identificado una curiosa anomalía: al preguntarle a ChatGPT si existe un equipo de la NFL cuyo nombre no termine en 's', la IA comienza un ciclo errático de respuestas ilógicas. A pesar de afirmar que existen dos equipos así, enumera ejemplos incorrectos y termina contradiciéndose.
La situación resulta más intrigante al observar la cadena de razonamientos en sus respuestas. ChatGPT enumera equipos como los Miami Dolphins o los Green Bay Packers—cuyos nombres claramente terminan con 's'—y luego reconoce el error, para después repetirlo con otros clubes. Esta repetición evidencia un patrón de desorientación lógica.
La pregunta no tiene truco: en la NFL todos los equipos terminan en 's'. Sin embargo, la IA se enreda entregando listas irrelevantes y extendiendo el diálogo, mientras simula procesos de pensamiento profundo, usando frases como 'déjame revisar cuidadosamente' o 'hagámoslo sistemáticamente'.
Otros usuarios reportaron que tras varias iteraciones, ChatGPT-5 lograba llegar a la respuesta correcta, aunque luego de un extenso viaje de razonamientos sin sentido. En pruebas realizadas por medios tecnológicos, el modelo mostró el mismo comportamiento errático, lo que genera dudas sobre la fiabilidad de su razonamiento.
No es la primera vez que ChatGPT experimenta fallos con preguntas aparentemente inofensivas. Ejemplos previos incluyen consultas sobre la existencia de emojis míticos, donde la IA insistía en información inventada, priorizando complacer al usuario por encima de la precisión factual.
Un posible motivo de este comportamiento es la estructura interna de GPT-5. Utiliza un modelo ligero para tareas simples y otro más complejo para preguntas difíciles. Si el modelo ligero no deriva correctamente la pregunta al modelo avanzado, se generan estos colapsos lógicos.
La decepción de la comunidad creció aún más cuando OpenAI limitó el acceso a versiones anteriores del modelo, aunque luego rectificó la decisión ante la presión de los usuarios. Este caso ilustra que, a pesar de los avances, la inteligencia artificial aún queda lejos de superar la lógica y adaptabilidad humana.