<div dir="ltr">Hello,<div><br></div><div>by default LASzip compressed points in independent chunks of 50000. Hence LASzip can be trivially paralized on decompression by spawning multiple thrreads that each seek to a different multiple of 50000 and then decompress non-overlapping chunks of multiples of 50000 points.</div><div><br></div><div>Of forumated otherwise. Seeking and decompressing a random point in the file will incur a decompression overhead of 0 to 49999 points depending on where your target points falls within the chunk of 50000 points.</div><div><br></div><div>Regards.</div><div><br></div><div>Martin @rapidlasso</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Feb 5, 2016 at 12:51 AM, Alexander Biddulph <span dir="ltr"><<a href="mailto:Alexander.Biddulph@uon.edu.au" target="_blank">Alexander.Biddulph@uon.edu.au</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">



<div bgcolor="#FFFFFF" text="#000000">
<div style="font-family:-moz-fixed;font-size:12px" lang="x-unicode">
I am currently using liblas (with LASzip) to read compressed LAZ files. <br>
<br>
My current workflow is to open the LAZ file, read in each point sequentially and place each point into a cell in a regular grid, then find the centroid of each cell.
<br>
<br>
However, this process is currently taking an extraordinarily long time, so I was wondering of there is some way that I could speed this process up.
<br>
<br>
I was initially thinking about extracting points from the file using multiple threads (via OpenMP). However, based on the small tutorials provided, it is my understanding that each thread randomly accessing the Nth point in the file would require decompressing
 the first N points. So I was then thinking about decompressing the entire file first, then randomly accessing the points in the decompressed file, however, I am unable to tell if this would actually provide much of a performance increase over just reading
 sequentially from the compressed file. <br>
<br>
Can anyone suggest a good way of speeding this process up? <br>
<br>
Thanks, <br>
Bidski <br>
</div>
</div>

<br>_______________________________________________<br>
Liblas-devel mailing list<br>
<a href="mailto:Liblas-devel@lists.osgeo.org">Liblas-devel@lists.osgeo.org</a><br>
<a href="http://lists.osgeo.org/mailman/listinfo/liblas-devel" rel="noreferrer" target="_blank">http://lists.osgeo.org/mailman/listinfo/liblas-devel</a><br></blockquote></div><br></div>