<div dir="auto">Just curious ... Did you try other tools, e.g. top, to see the memory usage per python process?<div dir="auto"><br></div><div dir="auto">I agree that they have to address their own need first and foremost. <div dir="auto">Perhaps others who run smaller lists can the advice/contribute on how to pare down memory usage. </div><div dir="auto"><br></div><div dir="auto">One obvious way to do this is modularization, and configurability. </div><div dir="auto">Examples, number of worker processes (e.g. how Apache, Nginx or PHP-FPM handles it: number of processes to start with, maximum number, and number of hot spares), or features (fancy user interface yes/no).</div><div dir="auto"><br></div><div dir="auto">But because this is obvious, perhaps it is already there, or tried and didn't work for some reason. </div><div dir="auto"><br></div><div dir="auto">In any case, it doesn't hurt to write follow ups for the issues on Gitlab, and send the info in your original message. Maybe if enough people report this as an issue, a solution would be found. </div></div></div>