Другими словами - предположим, что реальными инсталляциями подтверждаются результаты тестирования до N пользователей (видимо, 300-500 человек), то есть реально создать такой тестовый сценарий, который бы с пристойной точностью показывал бы, какую нагрузку и какое быстродействие мы будем иметь, посадив за систему, скажем 300 операторов. Далее, как в тесте, на который я ссылался в предыдущем посте, загрузка одного виртуального юзера признается эталонной, генерится 1000 таких "роботов", и получаются результаты, с некоторой натяжкой дающие представление о загрузке системы реальными людьми (подход имеет свои ограничения, так как при этом никто не следил за качеством вычислений системы, и тестировались не все возможные операции, ..... - но тест есть тест, это хоть что-то).
Но вот дальше происходит нечто необъяснимое - из этого делается вывод, что и тесты на большее количество человек (при этом сделанные, возможно, с использованием другого тестового сценария) - также имеют ту же степень точности, то есть фактически безграничная масштабируемость системы принимается за аксиому.
__________________
All information in this post is strictly confidential. If you have read it in error, please forget it immediately.
|