Привет, коллеги!
Работаю над приложением на Python, обрабатывающим большие объемы данных. Столкнулся с проблемой: через некоторое время работа замедляется, а использование памяти растет до критических значений, что приводит к сбою.
Использовал memory_profiler и objgraph для профилирования, оптимизировал алгоритмы, применил слабые ссылки (weakref), вручную вызывал gc.collect(), переписал часть кода на Cython — ничего не помогает.
У кого был похожий опыт? Какие еще инструменты и методы могут помочь? Буду благодарен за советы и рекомендации по диагностике и устранению утечек памяти в Python.