<div dir="ltr"><div><div><div>Hi Glenn,<br><br></div>Thank you for the clarification. Can you please give me an idea about how can I measure the cpu utilization for the scheduling algorithms with the existing option in LITMUS-RT/ experiment-scripts?<br>
<br></div>Thanks in advance <br><br></div><div>Sanjib<br></div><br></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Thu, Jun 19, 2014 at 1:43 PM, Glenn Elliott <span dir="ltr"><<a href="mailto:gelliott@cs.unc.edu" target="_blank">gelliott@cs.unc.edu</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word"><div class=""><br><div><div>On Jun 19, 2014, at 7:09 AM, Sanjib Das <<a href="mailto:cnt.sanjib@googlemail.com" target="_blank">cnt.sanjib@googlemail.com</a>> wrote:</div>
<br><blockquote type="cite"><div dir="ltr"><div><div><div>Hi,<br>Thank you very much. But, For each experiment with PFAIR scrip returns 3 couples of  CSVs and 
PDFs. Where PDFs are labeled as CXS_task_Avg_Avg, CXS_task_Min_Min, 
CXS_task_Min_Avg, CXS_task_Var_Avg, CXS_task_Max_Max, CXS_task_Max_Avg, and there is not label on the generated graph . <br><br></div>Can you please help me in this particulate case  ?<br><br></div>Thanks in advance <br>

</div>Sanjib<br><br></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Jun 19, 2014 at 1:05 PM, Björn Brandenburg <span dir="ltr"><<a href="mailto:bbb@mpi-sws.org" target="_blank">bbb@mpi-sws.org</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div style="word-wrap:break-word"><br>On 19 Jun 2014, at 12:03, Sanjib Das <<a href="mailto:cnt.sanjib@googlemail.com" target="_blank">cnt.sanjib@googlemail.com</a>> wrote:<br>

<br><blockquote type="cite"><div><span style="white-space:pre-wrap">        </span>• RELEASE_LATENCY: Used to measure the difference between when a timer should have fired, and when it actually did fire. In contrast to all other time stamps, this overhead is directly measured in nanoseconds(*********<b>and not in processor cycles as the other overheads********</b>).<br>

<br></div><div><br>Except RELEASE_LATENCY, are all the others measured in milliseconds ?<br><br>Or how can I determine that .<br></div></blockquote><br><div>See above. Feather-Trace reports processor cycles. </div>
<span><font color="#888888"><div><br></div><div>- Björn</div><div><br></div></font></span></div></blockquote></div></div></blockquote></div><br></div><div>Hi Sanjib,</div><div><br></div><div>Digging into the mailing list archives… <a href="https://lists.litmus-rt.org/pipermail/litmus-dev/2014/000964.html" target="_blank">https://lists.litmus-rt.org/pipermail/litmus-dev/2014/000964.html</a></div>
<div><br></div><div>Check out the section labeled “Overheads.”  Overheads should be in microseconds.</div><div><br></div><div>Regarding the particular measurements that you mention:</div><div><br></div><div>CXS_task_Avg_Avg: The average of average context switch overhead measured in each tested task set.  If you’re interested in average case overheads, this is probably the one that you want.</div>
<div><br></div><div>CXS_task_Min_Min: The minimum context switch overhead observed across all run task sets.</div><div><br></div><div>CXS_task_Min_Avg: The minimum average context switch overhead measured across tested task sets.</div>
<div><br></div><div>CXS_task_Max_Max and CXS_task_Max_Avg: Like the corresponding Min types, but for maximum values.</div><div><br></div><div>CXS_task_Var_Avg: The variance in context switch averages measured within each task set. (???)</div>
<div><br></div><div>The experiment-scripts auto-generates these graphs, so the graphs are very simple and they lack labels.  Please note that the generated graphs do not always make sense—the scripts aren’t smart enough to understand the context of the data.  From the scripts’s point of view, it was given data and told to plot it.  If you want to perform deeper analysis or create prettier graphs, you’ll have to process the data from the csv files stored in the directory hierarchy output by the scripts.</div>
<div><br></div><div>Finally, as noted above, release latency is measured by litmus in nanoseconds.  I think that there may be a bug in experiment-scripts.  I think it probably thinks it is in cycles as well.  I’ll look into this.</div>
<span class="HOEnZb"><font color="#888888"><div><br></div><div>-Glenn</div></font></span></div><br>_______________________________________________<br>
litmus-dev mailing list<br>
<a href="mailto:litmus-dev@lists.litmus-rt.org">litmus-dev@lists.litmus-rt.org</a><br>
<a href="https://lists.litmus-rt.org/listinfo/litmus-dev" target="_blank">https://lists.litmus-rt.org/listinfo/litmus-dev</a><br>
<br></blockquote></div><br></div>