Я бы взял какую-то уже решенную задачу и прогнал бы её в разных конфигурациях (на виртуалке, на выделенном, в кластере из нескольких). Исходя из этого уже можно делать какие то выводы. По памяти - всем конечно охота сразу все данные загрузить в память и оперировать ими в памяти, так быстрее, чем постоянно читать их с сети/диска, поэтому чем больше, тем лучше. По процессору - думаю, что в основном будет питон, там всё в 1 процесс/тред идёт.