<div dir="ltr"><div><div><div>Hi Glenn,<br><br></div>I got some overhead graphs from our 64-core machine, running up to 640 tasks.<br><br>"noheap" is the master branch and sbinheap is the "prop/sbinheap" branch. The difference between the two was not significant.<br>

The results are almost equal. sbinheap was slightly worse, but just because of measurement noise/small number of samples.<br></div><br></div>In general, the queue implementation doesn't seem to affect much the overheads. Otherwise we would also see more differences in the results<br>

of the RTSS'09 paper for the different heap implementations. Even though SCHED and RELEASE operations make heavy use of the task queue,<br>I think the costs are mostly  due to lock and cache contention on the global state, because it is accessed by all the processors simultaneously.<br>

And our machine has 32 + 32 CPUs connected by an interconnect, which makes cache coherence more costly.<br><div><br></div><div>Perhaps for larger task counts, the new heap would make a difference. But contention would also increase, so I think it would still dominate.<br>

</div><div>Still, replacing the heavy binomial heap with this binary heap makes sense. And it's working fine :)<br><br></div><div>Thanks,<br>Felipe<br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">

2014-06-12 10:51 GMT+02:00 Björn Brandenburg <span dir="ltr"><<a href="mailto:bbb@mpi-sws.org" target="_blank">bbb@mpi-sws.org</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<div class=""><br>
On 10 Jun 2014, at 20:16, Glenn Elliott <<a href="mailto:gelliott@cs.unc.edu">gelliott@cs.unc.edu</a>> wrote:<br>
<br>
> A while back there was some discussion of replacing GSN-EDF's and C-EDF’s use of bheap (the binomial heap data structure) for ordering CPUs.  These schedulers use bheap to organize CPUs into a min-heap, ordered by priority of the currently scheduled task.  This lets the scheduler quickly determine which CPU to preempt (i.e., the lowest-priority CPU).  bheap is a powerful data structure, but it is heavier-weight than is needed to just order CPUs—we don’t need bheap's quick merging.<br>


><br>
> Some time ago, I proposed replacing bheap with the binheap data structure (include/litmus/binheap.h).  However, binheap was thought to be also too heavyweight since it supports arbitrarily large heaps.  We don’t need this flexibility to order CPUs since the maximum size of the heap is known at compile-time (i.e., NR_CPUS).<br>


><br>
> To make some of my GPUSync locking protocols more efficient, I developed an “sbinheap” (static binary heap) data structure.  With exception of initialization routines, sbinheap uses the same API as the binheap data structure.  sbinheap builds the binary heap on a supplied contiguous array of heap nodes (either statically allocated or kmalloc’ed at runtime) using basic binary-tree-in-an-array indexing.  I’ve used sbinheap to: track the top M highest-priority released jobs, track the top M blocked tasks in a locking protocol, etc.  I’ve also used it to order CPUs the GSN-EDF and C-EDF schedulers.<br>


><br>
> I thought sbinheap might be useful for others, so I’ve proposed a set of changes in the “prop/cpu-sbinheap” patch set.  This branch includes patches to add the sbinheap data structure and update GSN-EDF and C-EDF to use sbinheap instead of bheap to order CPUs.<br>


<br>
</div>Thanks a lot for the patches. On first glance, they look great.<br>
<div class=""><br>
> It might be hard measure performance benefits of sbinheap vs bheap when heaps are small.  Would someone at MPI be willing to quickly measure GSN-EDF scheduling overheads on their 64-core system under Litmus 2014.2 with and without my patch?<br>


<br>
</div>The machine is currently in use for another project, but we'll try to give it a run in the coming days.<br>
<div class=""><br>
> Locking protocol overheads may also be reduced.  I will do the same on one of our UNC systems.<br>
<br>
</div>Sounds good. Let's compare notes once the tests have completed.<br>
<br>
Thanks,<br>
Björn<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
_______________________________________________<br>
litmus-dev mailing list<br>
<a href="mailto:litmus-dev@lists.litmus-rt.org">litmus-dev@lists.litmus-rt.org</a><br>
<a href="https://lists.litmus-rt.org/listinfo/litmus-dev" target="_blank">https://lists.litmus-rt.org/listinfo/litmus-dev</a><br>
</div></div></blockquote></div><br></div>