ERROR:database isnotaccepting commands toavoid wraparound data loss indatabase"mydb"
HINT:Stop the postmaster anduseastandalone backend toVACUUM in"mydb".
The short story
Si has llegado hasta aquí buscando el mensaje anterior, ya deberías saber que tienes un problema de los gordos, o sea que no te voy a entretener mucho.
Tu base de datos no ha perdido información, pero no acepta escrituras por lo que, probablemente, tu aplicación tiene una funcionalidad muy limitada. No te preocupes, no has perdido nada.
En resumen, te has encontrado con lo que se conocer como transaction wraparound. Básicamente, estás borrando o modificando tuplas de alguna tabla mucho más rápidamente de lo que el autovacuum de postgres puede limpiar. O quizás tienes el autovacuum desactivado.
Tienes dos alternativas evidentes: Ejecutar ese vacuum, como te indica el mensaje de error, o bien arrancar otra base de datos limpia con una copia de la actual. Personalmente te recomiendo la opción del backup. Mi propuesta es:
Exportar la base de datos actual via pg_dump.
Crear una base de datos nueva con los mismos roles y extensiones que la original.
Restaurar la nueva base de datos usando pg_restore, con el volcado del paso 1.
Configurar tu aplicación para que use la nueva base de datos.
Configurar autovacuum correctamente para evitar el mismo problema en el futuro.
Una vez empiezas con el punto 3), quizás puedas seguir el consejo de postgres y ejecutar el vacuum en single mode. En nuestro caso, no funcionó. Usamos un servicio cloud que no nos permite arrancar en single mode pero, además, nuestra tabla problemática era tan grande que no había manera de pasar el vacuum. Simplemente, no acaba.
«You Aren’t Gonna Need It» o «No vas a necesitarlo». Una de las reglas que todo aquel que se dedica al desarrollo de software debería tener presente en todo momento. Y no me refiero sólo a programadores o arquitectos, sino también a Product Owners que destrozan su producto llenándolo de funcionalidades banales.
No voy a extenderme mucho en el concepto. Hay mucha literatura por ahí. Sólo quería explicar un caso concreto que me comentaba un buen amigo hace poco. De como uno de esos YAGNIs le explotó en la cara recientemente. Como todos los accidentes, nunca hay una sóla causa, por lo podríamos argumentar que no toda la culpa fue del YAGNI. Pero lo cierto es que si alguien se hubiese planteado la necesidad de esa nueva funcionalidad antes de implementarla, probablemente no estaríamos hablando de esto ahora.
Os pongo en situación. Un sistema promocional requiere aplicar una promoción cuando se produce una determidada condición. Esa promoción siempre tiene un importe fijo. El mismo para todos los clientes y mercados. Nadie de negocio ha planteado nunca cambiar esa condición, no está en ningún backlog, nadie lo pidió y no parece que vaya a cambiar en un futuro próximo.
La cafetera.
Pero resulta que una conjunción lunar hace que un colaborador del equipo muy espabilado, voluntarioso e implicado con el proyecto, aunque algo joven e inexperto en el producto y en las técnicas de programación, tenga una conversación informal con el product owner. Y en lugar de hablar de futbol, se plantean que estaría bien parametrizar ese importe por tipo de cliente y mercado. Y se ponen manos a ello.
La zorra y el avestruz.
El resto del equipo, que está ocupado en otras tareas, no aprecia los riesgos de la modificación. Tampoco se ha hecho un grooming ni se ha planificado en ningún sprint, por lo que el desarrollo pasa bastante desapercibido.
Los spaghetti
Parece que el código del producto no es especialmente sencillo. Esta parte es bastante monolítica y tiene implicaciones con el sistema de pagos y los flujos principales de operación del producto. La modificación inicial era bastante sencilla, básicamente un «cuando pase esto, le ingresas esta cantidad al usuario». Pero al parametrizar esa cantidad por tipo de usuario y mercado, se añade más entropia a la ecuación. Y el código monolítico lleno de casos de uso que violan el principio de responsabilidad única tampoco ayuda.
Las caches las carga el diablo
Mi amigo no puede entrar en muchos detalles, pero resulta que, por circunstancias del producto, averiguar a que mercado pertenece el usuario para entregarle la cantidad que corresponde es tarea complicada computacionalmente. Por lo que alguien en el equipo propone cachear esos datos.
Nuestro voluntarioso programador, después de escuchar las críticas y consejos de un equipo de desarrollo que tampoco tiene muchas ganas de dedicar tiempo al problema, decide hacer su enésimo cambio e implementa esa cache. Y considera que el punto adecuado para guardar esa información es en el flujo de autenticación, ya que, a fin de cuentas, todos los usuarios se autentican en algún momento.
Y aquí tenemos el gran amplificador del problema. Lo que debería ser un caso de uso que ocurre esporádicamente, acaba afectando a uno de los flujos más importantes y usados de cualquier aplicación: el login.
¿Que me decías, cariño?
Cuando un coche sale malo suele decirse que aquello de «seguro que lo fabricaron el lunes a primera hora». En software, estos errores suelen aparecer los viernes, cuando los programadores quieren cerrar sprint y el product owner quiere explicarle al jefe lo listo que es y las cosas chulas que ha implementado el equipo.
Y aquí tenemos a nuestro voluntarioso colaborador pidiendo un code review a sus compañeros un viernes a primera hora de la mañana, todos ellos con el café en mano y pensando en el fin de semana.
Y resulta que la pull request, que ya llevaba varios días desarrollo y cayó en el sprint un poco torcida es aprobada sin demasiadas comprobaciones. Los test pasan, el proceso de integración continuo hace lo suyo y los cambios suben a producción sin que nadie sospeche el infierno que se va a liar en los próximos minutos.
Me gusta el olor de Napalm por la mañana
Lo que podía haber sido un viernes tránquilo se convierte pronto en un pequeño infierno. El error afecta el login de los usuarios, pero no falla siempre, sólo con algunos. La cache alimenta la entropía. No todos los usuarios fallan, y no fallan siempre. A veces falla el login, a veces la aceptación de GDPR, otros usuarios pierden su configuración de idioma. Las consecuencias son algunos clientes enfadados, medio equipo buscando e intentando corregir el problema. Gente dejando de hacer otras tareas importantes pero menos prioritarias, jefes cabreados que huelen la sangre y aprovechan para sacar los trapos rotos.. En resumen, mucha gente enfada por culpa de algo que no debió implementarse nunca.
Conclusiones
Los errores nunca vienen sólos. Por lo general, se acumulan varios pequeños errores que originan un gran problema. En este caso, hay algunas causas evidentes.
Tareas sin análisis previo o no «groomeadas».
Inexperiencia del desarrollador, tanto en el producto como en las técnicas de ingeniería.
Poco apoyo por parte del resto del equipo. Por falta de voluntad, o incluso por desconocimiento de la existencia del riesgo.
No construir usando pequeños incrementos de valor. Según parece la rama de desarrollo vivía sóla desde hacía varios dias e incluía múltiples funcionalidades. Eso dificulta las code reviews, molesta las subidas a producción y en general, cabrea al equipo.
Malas revisiones de código por parte del equipo. Por la razón que sea, los miembros más expertos del equipo no supieron aportar su conocimiento en la revisión de código.
Pero sobretodo, el error principal es la existencia del YAGNI en si mismo.
Es posible que toda la cadena de fallos lleve a otro error similar algún día, pero al menos será porque se estaba intentando aportar nueva funcionalidad.
El número de líneas es un gran determinante sobre la complejidad del software. Y la complejidad de un software tiene costes directos, medidos en euros. Un software complejo genera errores y hace más caro el desarrollo. Es mala idea engordar el código con funcionalidades innecesarias.
En este caso, TODA la funcionalidad que necesitaba negocio en el momento acual era añadir una constante con el valor 10 en alguna lugar del código. Como mucho, parametrizarlo en una configuración. 30 minutos de desarrollo, no más.
Llevo varios días atascado con un problema en el desarrollo del juego con Golang que me traigo entre manos. Como ya os decía en otro post, el servidor está implementado en Golang usando el motor de físicas Box2D.
El tema es que suele ser consenso entre programadores de juegos que la concurrencia hace perder rendimiento. De echo, la mayoría de juegos corren en un único hilo, a lo sumo en dos o tres. Uno para la física, otro para comunicaciones y alguno más para tareas secundarias.
Como yo soy un cabezón y tengo una fe ciega en la concurrencia que ofrece go con sus goroutinas, me he empeñado en abusar de ella todo lo que pueda. Y ya me he dado con la primera en la frente. Mi juego funcionaba bien con pocos clientes conectados pero se volvía totalmente inestable en cuanto el número de conexiones se acercaba a las 500, volviéndose totalmente injugable a partir de esos parámetros.
Paralelismo no es desorden, sino coordinación. Paralelismo es descomponer un problema en subproblemas y resolver cada uno de esos subproblemas simultaneamente para llegar a una solución final de manera más rápida.
Y yo no estaba haciendo paralelismo, sino concurrencia. Mis tareas no colaboraban entre ellas, más bien competían por conseguir los resultados de una de ellas.
En mi caso, tengo un hilo de ejecución que va calculando lo que ocurre en el mundo. Básicamente, calcula lo que pasa en un pequeño lapso de tiempo y luego duerme un ratito (un frame).
Por otro lado, tengo N hilos de ejecución, uno por cliente conectado, que estaban consultando el mundo y enviando actualizaciones a los clientes. No se puede consultar el estado del mundo mientras este está actualizándose, por lo que decidí proteger el mundo con un mutex. De esa manera, mientras se actualiza el mundo no se puede consultar. Sólo después de actualizar el mundo, esa goroutina duerme un rato liberando el mutex y permitiendo que otras goroutinas consulten el estado de este.
¿Cual era el problema? Que esto no es paralelismo. Es concurrencia. 501 gorutinas compitiendo por el acceso al mutex de manera caótica. No entraban en el orden esperado, y algunas incluso no eran capaces de entrar en el tiempo necesario, provocando fuertes desincronizaciones entre el cliente y el servidor.
La culpa es obviamente mía y de mi manera de pensar. Pensé que la anarquía podría resolver por si sola todo el problema, pero eso no es cierto cuando tienes tiempos precisos de actualización de los clientes y una carga muy elevada en el servidor.
La solución. Aplicar uno de los mantras de la comunidad go, explicada muy bien en el artículo enlazado.
En lugar de compartir memoria (el mundo) es el mundo el que debe actualizar las vistas de los clientes cuando sea conveniente. Los clientes, que son goroutinas, simplemente deben esperar a que el mundo les notifique que algo ha cambiado. Por lo general, escuchando por un channel.
Creo que es la primera vez que le veo sentido auténtico a la frase «do not communicate by sharing memory….» . Me jode tener que haberlo descubierto en mis carnes con tantas horas de desarrollo, pero mejor tarde que nunca.
NOTA: Por no extenderme, he decidido no incluir nada de pseudocódigo. Creo que la explicación se entiende relativamente bien. Si algún lector lo pidiese, podría ampliar un poco el post con código o incluso enlazar a la Pull Request con los cambios.