<div dir="ltr"><div dir="ltr"><div>Hi, </div><div><br></div><div>I executed 800 experiments for an out of stock protocol, each experiment runned for 30 seconds. During the experiments, I got overhead information using the scripts disponible at github (throught the feather trace tools). </div><div><br></div><div>I also ran the same set of experiments for another out of stock protocol and got the same overhead information. Both protocols generates nearly the same amount of jobs. </div><div><br></div><div>Analysing the collected data, I realized that the second protocol generated about 3 times more samples than the first, for all types of data collected, for example: CXS, LOCK, RELEASE-LATENCY, RELEASE, SCHED and SCHED2. </div><div><br></div><div>Another problem was that both protocols gererated a reasonable amount of LOCK samples, but an insignificant amount of UNLOCK samples. </div><div>For example: for an subset of 100 experiments, there was 62k LOCK samples for the first protocol and 177k for the second, there was 0 UNLOCK samples for the first protocol and 6 for the second. That situation was present in all of the 8 subsets, where the amount of UNLOCK samples was never above 10 for both protocols. </div><div><br></div><div>Through the tracers, I known that the LOCK and UNLOCK operations were happening as expected and I not changed the code which saves the overhead tracers. </div><div><br></div><div>Could anyone help me to understand what is happening? </div><div><br></div><div>Thanks,</div><div><br></div><div>Ricardo</div></div></div>