<div dir="ltr"><div>From what I understand pgpointcloud is much faster to uncompress zip than to compress it.<br></div>(roughly about 3 times)<br></div><div class="gmail_extra"><br><div class="gmail_quote">2015-04-15 18:53 GMT+02:00 Rémi Cura <span dir="ltr"><<a href="mailto:remi.cura@gmail.com" target="_blank">remi.cura@gmail.com</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div><div><div><div><div>ratio is size in pg (according to pgadmin) / size of original files on disk<br></div><br></div>I tested 3 ways to transfer, writing with postgres trough a COPY (ASCII ply), reading from client with python (uncompressed patches), and streaming to browser trough javascript (ASCII X Y Z time intensity).<br></div><div>The 2 first are parallelized 7 times.<br></div><div><br></div>I just ran pc_compress to estimate the compression decompression time<br></div>(for the moment only for 500 million las points)<br></div>I roughly have a capacity of 5 Million pts/sec compression  or decompression speed (1 core)<br></div>(tested trough timing uncompress, then compress(uncompress), then uncompress(compress(uncompress)) )<br><div><div><div><div><br></div><div>I would say overhall pgpointcloud compression is pretty fast (I'm hoping this facts are not due to some caching)<br></div></div></div></div></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><div class="gmail_quote">2015-04-15 18:30 GMT+02:00 Sandro Santilli <span dir="ltr"><<a href="mailto:strk@keybit.net" target="_blank">strk@keybit.net</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span>On Wed, Apr 15, 2015 at 06:09:52PM +0200, Rémi Cura wrote:<br>
> Here are some facts about pgpointcloud compression<br>
><br>
> 5.2 Billion las points (usual suspects):<br>
> ratio 4.36 (compared to .las files)<br>
<br>
</span>How do you compute that ratio ? Is that LAS/PG size ?<br>
How do you determine PG size ?<br>
<span><br>
> The system can write from 1 Million to 0.2 Million pts/sec to a client,<br>
> depending on the point type<br>
<br>
</span>How do you transfer those points to the client, in which format ?<br>
<span><br>
> I'm in the process to measure compression/decompression time on those data<br>
> I tried to get the best ratio (thanks to recent work of @strk on uint64_t)<br>
<br>
</span>Did you try pc_compress to manually tweak per-dimension compression yet ?<br>
<br>
--strk;<br>
</blockquote></div><br></div>
</div></div></blockquote></div><br></div>